News Raven Ridge: AMD Ryzen kommt zu Weihnachten ins Notebook

für nen HTPC würde mir ein 2C/4T reichen, am besten mit einer minimalistischen GPU samt jeglichem HEVC / 4K /Encode / Decode / 10 Bit Support und native HDMI 2.0 mit HDCP 2.2.

Das ganze etwa in der ULV Klasse von Intel passiv oder leise aktiv bis 15W. Wenn man den 8 Kerner schon auf 35W UV kann sollte das doch drin sein :)

@ Vega Leak

3DCenters Comment dazu

Mit 1500 Mhz wären ja schon mal 20% mehr Leistung drin sofern man diesen Takt erreichen sollte. Polaris 20 spricht da aber ebenfalls dagegen außer die Architektur wurde stark taktoptimiert. Außerdem sollte 3DCenter wissen dass es HBM 2 derzeit mit max 204 GB/s gibt was den Takt erklärt. Wobei das ziemlich genau den 800Mhz entsprechen würde.
 
Zuletzt bearbeitet:
HominiLupus schrieb:
Das Potential ist da. Ryzen hat genug IPC, der Takt kann bis 3GHz gehen was auch reicht. Nur beim Stromverbrauch kann es Probleme machen.
...
Grade bei Spielen wären echte 4 Kerne immer noch ein großer Vorteil solange die CPU eben nicht mehr als ein i5 derzeit kostet und der Stromverbrauch idle+Last im Rahmen bleibt.

RavenRidge ist ein kleinerer SoC und nicht zu vergessen, dass ein RyZen Chip aktuell 8 Cores hat und mit 3GHZ bereits effizient ist. Auch wird kein weiterer externer Chipsatz, wie es aktuell bei Mainboards der Fall ist, benötigt. Vllt maximal der Fingernagel große Chipsatz, welcher bisher für ITx Boards geplant ist.

Also woher wisst ihr, was RR im Idle und Last verbrauchen wird ?
Eher gehe ich hier von einem besseren Sweetpoint aus, als es im Desktop der Fall ist.
 
Zuletzt bearbeitet:
Die schlechten Ryzen kommen dann ins Notebook. :D
ürde ich genauso machen.
Bin echt gespannt, wie sich dann die Preise entwickeln.
 
ich denk auch dass man hier sehr effiziente 3 Ghz erwarten kann, wie bei Intels 14nm nunmal auch. Ryven Ridge wird sicher nicht den riesen L3 Ballast haben und vermutlich auf ein CCX mit 4/8 setzen. Ob es eigene Masken für 2C gibt wird sich zeigen, aber selbst 4 Kerne dürften auf sehr effiziente kleine TDP Werte skalierbar sein.

Ich denke die hohe Effizienz verdankt man aber weniger "Zen" als dem Prozess der einfach gut geht. Von den Rohdaten her ist der 8 Kern Ryzen ein richtiges Monster und wenn die Spannung erhöht wird zeigt er auch wie die Leistung explodiert (genau wie Intels 8 Kerner). Der Prozess ist aber anders als Intels 14nm + auf ~3 Ghz oder weniger optimiert, wie auch zb manche SOCs für Smartphones für gefertigt werden.

Ryzens Perf/W ist sehr gut in diesem Bereich da er da mit ~1V auskommt. Und gerade in CineBench was man gern heranzieht ist die Performance / W dann extrem gut.

Was mir hier am 1700er @ 3,9 Ghz neben mir auffällt ist dass er mit 1,35V bei 3,9 Ghz schon satt 220W bei Handbrake braucht, SOC Package only. Ist krass wie das nach oben raus skaliert. Dagegen is er bis 3,5 Ghz recht effizient. Wer gern die Stabilität seines Ryzen Gespanns testen will wandelt am besten mal nen Film nach X265 mit Ryzen. Bei mir verabschiedet sich Handbrake deutlich früher als Prime 95 mit AVX - System läuft weiter aber Handbrake stürzt ab. Bei 200 Mhz weniger dann nicht mehr der Fall. Aber OT ;)
 
Krautmaster schrieb:
@ Vega

Kann man nur hoffen dass das Ergebnis nicht so aussieht:
http://www.3dmark.com/spy/1544741

Das wird sicherlich ein Cut sein, als ob die einen Top-Tier Chip bringen, der nicht stärker als Fiji ist, da hätten sie sich die Entwicklung und den Aufriss wirklich sparen können. Es köchelt doch schon lang genug in der Küche, dass der "kleine" Vega gegen 1070/1080 antreten soll und der große dann eher als Volta-Gegenpart gedacht ist.
 
pipip schrieb:
Also woher wisst ihr, was RR im Idle und Last verbrauchen wird ?
Eher gehe ich hier von einem besseren Sweetpoint aus, als es im Desktop der Fall ist.

Weil der Prozess und auch das Core Design schon feststeht kann man schon etwas abschätzen was kommen wird.
Ein CCX, kein L3. Die gesparte Fläche mit Polarisshadern vollmachen, fertig. Das ist meine Vorraussage.
OK, den FCH auch noch drauf. Dürfte ja nicht größer als bei Kabini sein.

Die Vollast TDP ist natürlich stark variabel wegen der Shader.Die hat Intel so eben nicht.
 
psYcho-edgE schrieb:
Das wird sicherlich ein Cut sein,

Ich denke auch dass es sich dabei um einen Cut handelt. Anders wäre die Leistung auch kaum zu vertreten. Allerdings hat der Cut meistens ne andere Driver ID oder?

Edit: Okay ich finde auf die Schnelle kein Leak welche 687F:C1 in Verbindung mit Shadern bringt. Im Doom Test usw kommt 687F:C1 auf etwas über GTX 1080 Leistung. Kann durchaus sein dass diese Karte die kleinere der Vega Karten ist weil im Vollausbau wäre nur GTX 1080 Niveau ebenfalls nicht wirklich gut.

Edit2: passt

https://img.purch.com/o/aHR0cDovL21...NRC1SWC1WZWdhLVNwZWNpZmljYXRpb25zLTEtLnBuZw==

Der Vollausbau mit 4096 Shadern ist wohl 687F:C3

Da nur der mit 4096 Shadern aktuell in Verbindung gebracht werden kann muss es sich bei 687F:C1 schon fast direkt um einen Cut handeln.

Edit3:
Eigentlich logisch. Das bedeutet dass der HBM 2 vermutlich 100 Mhz niedriger getaktet ist als bei Vega Vollausbau, deswegen im Leak hier 700 Mhz statt den offiziell verfügbaren 800 Mhz von HBM 2 - die dann wohl der Vollausbau bekommt. Auch der Chiptakt mit 1200 Mhz ist vielleicht etwas geringer, muss aber nicht sein.
Aber mit allen Leak Informationen kommt wohl schlicht bisher folgendes raus:

687F:C1 = Vega 10 Cut = ~1200 Mhz Chip + 8 GB 700 Mhz HBM 2
687F:C3 = Vega 10 Vollausbau = ~XXXX Mhz Chip + 8 GB ~800 Mhz HBM 2
:)

Bei der Doom Demo mit GTX 1080 Performance wurde dann demnach wohl auch nur der Cut für hergenommen. Das macht Hoffnung.
 
Zuletzt bearbeitet:
Simon schrieb:
Selbst Einsteiger-Gaming-Notebooks haben doch oft ne dedizierte GPU drin. Und wenn es nur eine gammelige 960er ist. Da spielt die IGP-Leistung aber auch keine Rolle mehr.
Unter 399€ sind es ausschliesslich AMD APUs mit dedizierter Grafik, erst ab 399€ bekommt man Intel +Geforce 820M
https://geizhals.de/?cat=nb&xf=8149_dedizierte+Grafik&sort=p

Eine 'gammelige' GTX960M gibts ab 691€ im Notebook
https://geizhals.de/?cat=nb&sort=p&xf=11295_21503+-+NVIDIA+GeForce+GTX+960M~8149_dedizierte+Grafik

AMD könnte also sehr wohl im Einsteigerbereich bis 400€ mit der kleinsten RR APU punkten (bzw. alte APU ersetzen), und darüber ist mit den größeren APUs auch noch ein Markt vorhanden.
Wenn die Leistung stimmt, wird es keine besseren Gaming-Notebooks mit etwas anderem wie Raven Ridge unter 700€ geben.

PS: ODer glaubt hier irgendwer, daß es Kabylake + Pascal für <700€ geben wird? ;)
 
Zuletzt bearbeitet:
@Krautmaster

Dann sind wir uns ja einig ^^
Ich glaube nicht dass Vega jetzt alle wirklich krass umhauen wird. Ich denke eher, dass es einfach eine für die nächsten Jahre brauchbare Architektur wird, die mit vielen kleinen Goodies kommt, die erst mit der Zeit wichtig werden. Ich meine, wer hätte damals bei der einzelnen ACE der HD7970 gedacht, dass die irgendwo Verwendung findet und durch Vulkan und DX12 kann die Einheit genutzt werden und das erhöht die Lebensdauer noch weiter. Vergleichbares wird wohl bei Vega passieren.

Der small Chip wird eventuell die Leute abholen, die sich einfach keine nVIDIA Big Chip Pascal holen wollten und der Big Chip Vega wird wohl erstmal vor die 1170/1180 legen und dann irgendwann von der 1180 Ti oder Titan Volta überholt.
 
HominiLupus schrieb:
Intel wird imho weiter stromsparender aber eben auch grafisch schlechter sein.

Warum? Weil die Desktop-CPUs dieselbe Performance/Watt haben wie AMD werden die Verhältnisse beim Transfer der Architektur in's Notebook grundlegend anders? Entbehrt einer gewissen Logik.

Dass die APUs insgesamt mehr Strom verbrauchen können ist naheliegend da ihre Graphikeinheit auch - vermutlich - leistungsfähiger wird.
 
TenDance schrieb:
Warum? Weil die Desktop-CPUs dieselbe Performance/Watt haben wie AMD werden die Verhältnisse beim Transfer der Architektur in's Notebook grundlegend anders? Entbehrt einer gewissen Logik.

Nein sie werden eben nicht anders sein sondern ähnlich wie auf dem Desktop, ähnliche Performance/Watt für die CPU Kerne mit Abstrichen wegen L3 Verlust (also Last) vielleicht aber sogar besser unter Last weil ja LPP. Aber doch höherer idle Verbrauch. Dazu dann insgesamt höhere TDP im Gesamtpaket der APU wegen der deutlich besseren Grafik die aber auch mehr verbraucht.
 
psYcho-edgE schrieb:
ch meine, wer hätte damals bei der einzelnen ACE der HD7970 gedacht, dass die irgendwo Verwendung findet und durch Vulkan und DX12 kann die Einheit genutzt werden und das erhöht die Lebensdauer noch weiter. Vergleichbares wird wohl bei Vega passieren.

mhm joa wohl ne Sache der Philosophie. Ich mein ne HD 7970 kann man zwischenzeitlich doch auch... Wer damals High End kaufte wird kaum 5 Jahre + mit der überdauern wollen und heut alles zurückdrehen. Mir wärs manchmal lieber wenn AMD auch den GPGPU Ballast etwas entfernen würde und nen richtigen Gaming Chip auflegt. Anstatt sich auf Dinge wie HBM 2 zu versteifen eher mal die Time to Market angeht.
Gut, vermutlich kann man sich nicht wie Nvidia ne 2. FatDIE fürs Computing Umfeld leisten.

Hatte auch gehofft das DX12 und Vulkan etwas schneller Anklang findet. Aber das wäre wohl erst der Fall wenn die Konsolen auch mal CPU technisch mit den Desktop Modellen mithalten könnten und kein Game in DX11 mehr spielbar wäre - also dass Low Level auch hier @ Desktop wirklich "Zwang" wird.
 
EchoeZ schrieb:
PS: ODer glaubt hier irgendwer, daß es Kabylake + Pascal für <700€ geben wird? ;)

Für unter 700€ wäre ein I5 + 1030m gut vorstellbar.
 
bei einer 1030 m is wohl ne schnell APU fast das selbe von der Leistung her
 
TenDance schrieb:
Dass die APUs insgesamt mehr Strom verbrauchen können ist naheliegend da ihre Graphikeinheit auch - vermutlich - leistungsfähiger wird.

Wichtig ist dass die APU unter Teillast (Windows + Browser + Video) mal in Bereiche der Intel Chips kommen. Vollast in Game wird man von der TDP immer mehr abverlangen als eine deutlich langsamer iGPU. Da kann man kaum Wunder erwarten.
 
Zuletzt bearbeitet:
Ich finde, dass der Notebook Markt frischen Wind gebrauchen kann also mach hin AMD, Opa braucht ein Neues Notebook und am liebsten eines von Dell.
 
Laut 3DCenter Forum ist es die niedrigste Nummer aller Vega zugeordneten Hardware IDs ..

Man darf also gespannt sein.

Bissl mehr Wind dürfte AMD schon machen.
 
Werden diese APU s mit hbm kommen?
 
Krautmaster schrieb:
für nen HTPC würde mir ein 2C/4T reichen, am besten mit einer minimalistischen GPU samt jeglichem HEVC / 4K /Encode / Decode / 10 Bit Support und native HDMI 2.0 mit HDCP 2.2.

Das ganze etwa in der ULV Klasse von Intel passiv oder leise aktiv bis 15W. Wenn man den 8 Kerner schon auf 35W UV kann sollte das doch drin sein :)

Das wünsch ich mir auch, mein HTPC mit AM1 5350 stößt schon manchmal an seine Grenzen. Aber in eine höhere Watt Klasse will ich nicht mehr ;-)

Was meint ihr wann man mit so etwas rechnen kann? Vielleicht gleich zu Weihnachten ein paar verlötete mini-itx mit raven rige mobile?
 
Zurück
Oben