News AMD Semi-Custom-Chip: Quad-Core-Ryzen mit 24-CU-Vega und 8 GB GDDR5

SimpleGuy23 schrieb:
Also wenn superflache Notebooks mit sowas möglich sind dann bestimmt auch nen TV
Klar sind die Möglich. Ich sagte ja auch verbocken. Wenn man's richtig macht, dann geht's ab. ;)
 
m.Kobold schrieb:
Wenn eine low spec hardware ein deutlicher Sprung nach vorne darstellen soll, kann man gut sehen wie unterlegen die Konsolen sind und auch immer sein werden!

Selbst an Tag der neuerscheinung waren Xbox One and PS4 total veraltet Technik und das obwohl die Konsolen mal locker 800€ gekostet haben... und 60-80€ pro Spiel.

.
Gaming Spaß kann ( und hat ) man auch mit den Konsolen , oder denkst du tatsächlich die hätten sich sonst Millionenfach verkauft ?
Klar , wer zu den 4K Gaming Schwachköppen gehört braucht derzeit noch nen PC wenn er auf 60 FPS kommen will , ist auch gut und richtig so das diese dann 800 - 1000 Euro allein für die GraKa löhnen müssen . Wer meint unbedingt diese Leistung haben zu müssen und in 4K Gamen zu müssen , muss auch blechen ...
anderen reicht FHD , das ist 1/4 der Leistung und dementsprechend auch des Preises
 
  • Gefällt mir
Reaktionen: SVΞN
Dass AMD eine Variante des Raven Ridge mit leistungsstärkerer iGPU entwickelt wurde ja bereits seit Monaten vermutet.
Nun sind weitere Infos verfügbar.
Die Version für die Spielekonsole wird mit GDDR5 RAM arbeiten, für NUC / Gaming-Notebooks wäre GDDR5 RAM allerdings unpraktisch,
weil es gibt keine GDDR5 RAM-Riegel, diesen RAM-Typ gibt es nur zum Auflöten direkt auf die Platine.

Allerdings gibt es Gerüchte dass AMD diese APU auch als PC-Version mit HBM (für Grafik) und für DDR4 RAM fertigen wird.
Das hätte den Vorteil dass man die RAM Ausstattung des Rechners einfach ändern könnte, was bei fest aufgelöteten RAM Bausteinen nicht möglich ist.
Und mit HBM für die GPU gäbe es auch keine Nachteile beim RAM für die Grafik.
 
  • Gefällt mir
Reaktionen: edenjung
Ist bekannt, die breit die Speicheranbindung bei diesem SOC ist?

256bit
 
Zuletzt bearbeitet:
Sanjuro schrieb:
Meinst du gpu takt? 2.000 mhz bei einer 7870! Ich mein das wäre etwas viel?


ich meine sowas https://www.notebookcheck.com/AMD-Radeon-R9-M390X.144431.0.html

das gab es unter vorgehaltener hand schon 2013 late und early 2014. war hammer und hat leider apple exclusive bekommen. dafür gab es für amd ordentlich geld, ohne das leute wie wir etwas zu dem zeitpunkt davon wussten :D

"Der Chip Unterstützt DirectX 12 Feature Level 12_0 in Hardware, Mantle, Vulkan und OpenGL 4.3. Die 32 Compute Units können ausserdem per OpenCL und DirectCompute für generelle Berechnungen angesprochen werden." ..... das ganze 2013. sollte klar sein, warum sowas für wen gebaut wurde....apple durfte dann halt die restbestände verwerten :D


*edit* ich wurde gerade im RL darauf aufmerksam gemacht, das es ein wort sowas überhaupt nicht gibt....mir doch egal, so lange ich mir immer noch anhören muss (ich bin im wald gestanden) gibt es bei mir sowas. über sinn machen wollen wir mal überhaupt nicht reden^^

mfg
 
Zuletzt bearbeitet:
Suito schrieb:
[...]
Sony nutze in der PS3 ihre API "PSGL", welche auf OpenGL und Nvidia's CG bassierte, mit der PS4 kamm dann GNM und GNMX, welche wohl Architektur bedingt eingeführt wurde. Die PS4 wurde 2013 veröffentlich, die API ist sicher schon früher in der Entwicklung gewesen.
Vulkan kamm erst 2016 auf den Markt, lange nach der PS4.
Sony hat von GNM und GNMX nicht viel, da sie damit kein anderes System (wie MS) bedienen sondern es nur für die PS4 entwickeln.
Sollte Sony eine gute Alternativ (welche sie 2013 nicht hatte) haben, warum sollten sie Millionen in die Entwicklung einer API Stecken welche von den Chiplieferanten quasi für LAU geliefert wird und ebenfalls Low-Level Support hat. High Level Extensions kann man immernoch hinzufügen.

Dadurch würde, wie bereits erwähnt, sony millionen sparen bei gleich guten ergebnissen, deswegen vermute ich, dass sie irgendwann auf Vulkan(oder nachfolger) + Extensions setzen werden.
Die Entwickler nutzen hauptsächlich LibGCM und nicht PSGL.
GNM ist praktisch der explizite Nachfolger davon.

Vulkan und PC DX12 sind übrigens nicht so effizient und featurereich wie die Konsolen-APIs, die Konsolenhersteller bauen eigene Softwarestacks weil das schneller ist und weil sie sich teilweise auch so differenzieren können und alles unter eigener Kontrolle haben.
So muss man nicht auf Gremien warten oder Kompromisse beim API-Design hinnehmen oder dann selber über tonnenweise Extensions das im Nachhinein gerade biegen.

[wege]mini schrieb:
ich meine sowas https://www.notebookcheck.com/AMD-Radeon-R9-M390X.144431.0.html

das gab es unter vorgehaltener hand schon 2013 late und early 2014. war hammer und hat leider apple exclusive bekommen. dafür gab es für amd ordentlich geld, ohne das leute wie wir etwas zu dem zeitpunkt davon wussten :D

"Der Chip Unterstützt DirectX 12 Feature Level 12_0 in Hardware, Mantle, Vulkan und OpenGL 4.3. Die 32 Compute Units können ausserdem per OpenCL und DirectCompute für generelle Berechnungen angesprochen werden." ..... das ganze 2013. sollte klar sein, warum sowas für wen gebaut wurde....apple durfte dann nur die restbestände verwerten :D
Das gab es offiziell als Radeon 285 mit 1792 Shadern und das einzige was an dem Chip Hammer war, war AMDs miserables Management davon.
https://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/5/
https://www.computerbase.de/2015-11...2/#abschnitt_benchmarks_in_1920__1080_full_hd

Der Chip wurde nie mit vollem Interface (384-Bit) verkauft, kam anfangs auch nur kastriert als 285 mit 2GB auf den Markt, während die Vorgänger 3GB hatten.
Es hat ein ganzes Jahr gedauert, bis AMD dann Tonga auch mit 2048 Shadern als 380X verkauft hat.
Bezüglich der Effizienz war man 10-15% besser als Tahiti, nicht gerade eine Meisterleistung im Vergleich zu Maxwell, der AMD dann durch die Bank bei der Perf/Watt deklassiert hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aivazi und yummycandy
wie gesagt, warum perlen vor die säue werfen....alles gut. und natürlich hast du recht, amd hatte und hat immer noch probleme, seine produkte bei den normalen konsumenten am markt zu platzieren.

wenn keiner den geilen shice haben will außer die typen, die nicht oft kaufen - der hauptgrund warum 3dfx kaputt ging - dann muss man mit den aufrecht gehenden großsäugetieren leben, die ihre dinge nach werbe prospekten kaufen. shit happens.

hardware ist bei vielen schon fast religion und natürlich, darf jeder glauben was er will :D

mfg
 
der Speicher wird jetzt nur direkt auf das Package gelötet, betont AMD.
Laut AMD ist da aber nicht so.

Verrückte Welt, nichtmal Seiten wie Fudzilla, deren Redakteure eigentlich Englisch als Muttersprache sprechen verstehen Englisch:O

Das
and 256-bit GDDR5 interface onto a single chip and 8GB of GDDR5 on the motherboard.

Muß per Update klargestellt werden^^^
UPDATE 8/3/18 to clarify it is the GDDR5 memory controller that is on the chip.
 
Zuletzt bearbeitet:
Halb-OT: Gerade gesehen, dass das erste Thinkpad A485 bei Geizhals gelistet ist. Mit Verspätung, da es hier noch hieß, dass es im Juli kommen sollte, das A285 im August.

Leider kommt es mit den zuvor bekannten Einschränkungen: ua keine WQHD Option, kein Intel WLAN, kein TB3 (ausser vielleicht der Dockingport, der wird von Lenovo als "Thunderbolt USB-C side mechanical docking port" bezeichnet).
Schade, vorallem die fehlende WQHD Option ist für mich ein no-go.
 
m.Kobold schrieb:
Wenn eine low spec hardware ein deutlicher Sprung nach vorne darstellen soll, kann man gut sehen wie unterlegen die Konsolen sind und auch immer sein werden!

Viele beschweren sich über teure GPU's und wollen zurück in die Steinzeit zu ihren billig Konsolen.

Selbst an Tag der neuerscheinung waren Xbox One and PS4 total veraltet Technik und das obwohl die Konsolen mal locker 800€ gekostet haben... und 60-80€ pro Spiel.

Da mußte Destiny sogar noch in 720p runterskalliert werden weils in 1080p auf medium details nicht flüssig lief -.-

Kein wunder das Sony und Microsoft soviel umsatz mit den Konsolen machen, hier werden die Konsumenten schlicht abgezockt.

Hab mir damals ne Gamecube geholt... danach nie wieder.
Mit nen dicken Rechner und gute Peripherie die man für die Konsolen nicht bekommt bzw. inkompatible ist, vernichtet der PC die Konsolen und zwar mit links.
Du machst doch deinen Namen alle Ehre.
Die Konsolen waren total veraltet? 800€ teuer? Sie waren Midrange mit einer schwachen CPU und kosteten 500€ für Xbox One samt Kinect 2.0 und 400€ für die PS4. Dennoch sahen die Spiele wie Killzone, Driveclub, Infamous und Forza 5 grandios aus, trotz der bescheidenen Technik.
Destiny 1 läuft mit 1080p auf beiden Konsolen, ich habe damals schon bei der Beta-Version mitgespielt. Vielleicht verwechselst du das mit der Last-Gen Xbox360 und PS3, denn dort läuft Destiny in 720p und Medium Details. :lol:
 
  • Gefällt mir
Reaktionen: RuhmWolf und -Ps-Y-cO-
Sobald man an einem PC zusammen mit der ganzen Familie spielen kann, stelle ich mir einen ins Wohnzimmer.
 
Richtig ist auch wenn dass Ding es nach Europa schaft sind GT1030-GTX1050ti AMD RX550-560 sinn frei. Zumindest wenn der Preise stimmt.

Wäre was für mein Dad und ich finde es cool.
Ergänzung ()

PS: Die Switch unterstützt Vulkan nur mal so am rande.
 
Ja, wenn der Preis unter 150€ liegt. Oder was meinst du wer die hauptsächliche Zielgruppe dieser Leistungsklasse ist? Da wird halt der Office Pc mit 4 Kernen günstig aufgerüstet.
Sehe nicht wie das Teil irgendwas obsolet machen könnte
 
Unnu schrieb:
Der könnte dann allerdings richtig laut werden, wenn Du das in so einem superflachen Gehäuse verbockst.
Dann doch lieber in eine kleine Box daneben.
BTT: Nicht schlecht, AMD gibt richtig Gas und sie sehen obendrein noch zu, dass sie ihre Vega-Einheiten auch noch unterbringen um die Technologie noch auszuschöpfen.
Das könnte brauchbar sein, ein Test wäre schön, sofern man an diese Fenghuans rankommt.
Galt es nicht Mal als Qualitätsmerkmal wenn die Rückseite eines Fernseher nicht aus Plastik ist? Wenn man die Konstruktion geschickt gestaltet könnte man da nen gigantischen Heatspreader draus machen... Mit der APU wird die Kiste eh schon ziemlich teuer, da macht das dann auch nicht mehr viel aus.
 
Suito schrieb:
Sony nutze in der PS3 ihre API "PSGL", welche auf OpenGL und Nvidia's CG bassierte, mit der PS4 kamm dann GNM und GNMX, welche wohl Architektur bedingt eingeführt wurde. Die PS4 wurde 2013 veröffentlich, die API ist sicher schon früher in der Entwicklung gewesen.
Vulkan kamm erst 2016 auf den Markt, lange nach der PS4.
Sony hat von GNM und GNMX nicht viel, da sie damit kein anderes System (wie MS) bedienen sondern es nur für die PS4 entwickeln.
Sollte Sony eine gute Alternativ (welche sie 2013 nicht hatte) haben, warum sollten sie Millionen in die Entwicklung einer API Stecken welche von den Chiplieferanten quasi für LAU geliefert wird und ebenfalls Low-Level Support hat. High Level Extensions kann man immernoch hinzufügen.

Dadurch würde, wie bereits erwähnt, sony millionen sparen bei gleich guten ergebnissen, deswegen vermute ich, dass sie irgendwann auf Vulkan(oder nachfolger) + Extensions setzen werden.

Sehe ich nicht so Sony´s Version des Chips von AMD hat z.b viel viel mehr Compute Units und 2xFP16 gegenüber der Xbox One X.
Die Möglichkeiten Chips + vor allem die eigenen API ist viel flexibler und Hardware näher als die Vulkan API weil sie selber Handanlegen können und es problemlos erweitern können.
Sony muss auch nicht für andere Plattformen entwickeln und können viele dinge auf ihre wünsche anpassen
und alles aus der Kiste rausholen was möglich ist.
Daher sehen die Xbox Games auch nicht besser aus sondern das gegenteil ich rede nicht von der Grafik selbst oder Auflösung, sondern von der verwendeten Technologien und Rendertechniken z.b bei God of War, Uncharted 4, Infamous SS, Horizon Zero Dawn ist teilweise viel fortschrittlicher als alles bis dagewesene die
sehen viel fortschrittlicher aus als die meisten Games zurzeit auf Xbox/PC schau dir mal die Digital Foundry Tech Analysis an von diversen Sony spielen....die bestätigen das.

Klar die Xbox One X ist definitiv stärker aber ich hab bisher kein Titel gesehen von Microsoft das auch PS der Konsole auf die Straße gebracht hat bis auf Ryse (Crytek) damals wo mir die Kinnlade nach unten gefallen ist.
Der Rest ist nur höhere Auflösung und bessere Schatten und bisschen bessere Grafik keine richtigen schritte nach vorne wo man sich denkt ok das ist ein Sprung.
 
Ich bin immernoch enttäuscht, dass es noch keinen Alienware 13 R4 gibt, da man die Kühlprobleme der neuen Intel Hexacores selbst bei großen Geräten nicht in den Griff bekommt.
 
  • Gefällt mir
Reaktionen: Mcr-King
[wege]mini schrieb:
die gpu lösung von amd für die mac´s war ja schon damals das beste, was man am markt haben konnte (eine 7870 mit 2k /1792 shader bei 100watt), leider kam es für "normalos" wie uns viel zu spät als tonga gpu auf den markt :(

Locuza schrieb:
Das gab es offiziell als Radeon 285 mit 1792 Shadern und das einzige was an dem Chip Hammer war, war AMDs miserables Management davon.

schön dass du dich noch erinnern kannst, dass die 285 zu spät kam und man irgend wie das gefühl hatte, das amd das ganze mehr als stiefmütterlich behandelt hat. nun ja, das geld war schon verdient :D man nennt sowas resteverwertung.....

mfg
 
Zurück
Oben