Notiz APU-Gerüchte: Grafik-Konfigurationen von AMD Renoir im Gespräch

@just_fre@kin gefällt mir auch was du da schreibst, aber 15 Watt TDP sehe ich nicht realistisch bei den größeren Lösungen. Die werden wie übliche bei 25 oder 35 Watt liegen. Bei den kleinen hingegen ist es gut möglich dass die auch 15 Watt TDP haben können.

Kann mich aber auch irren und lass mich gerne von AMD deines besseren überzeugen. Leider weiß ich nicht wie stark die Leistung einbricht wenn man einen 8 Kerner auf 15 Watt TDP beschränkt.
 
  • Gefällt mir
Reaktionen: just_fre@kin und [wege]mini
Krautmaster schrieb:
Am wirtschaftlichsten und sinnvollsten wäre also eine Zen 2 APU als monolitischen Die mit 8 Kernen und ggf etwas aufgebohrte aber bestehendem Grafik Design (deswegen ggf Vega) um kurze Time to Market zu realisieren.
Ähnlich möglich sehe ich einen geänderten IO-Die kombiniert mit der Grafikeinheit (eventuell beschränkt auf PCIe3.0) plus 8-Kern Chiplet. Also 2 Chips insgesamt. Damit hat man keine Probleme mit der vertraglichen Mindestabnahmemenge bei Global Foundries, weil man einfach den IO-Grafik-Die von denen abnimmt, und kann trotzdem in Sachen Prozessorleistung ordentlich zulegen. das Vega-Design funktioniert afaik schon gut in 12nm, der IO-Chip funktioniert ebenfalls gut.
 
  • Gefällt mir
Reaktionen: Ned Flanders und Krautmaster
HighPerf. Gamer schrieb:
@Stunrise
Mag aber auch daran liegen, das die Notebook Umsetzungen der OEM bei AMD meist schlechter sind als bei Intel. Denn ich kann von meinem 3200G Build nur sagen, sehr geil und schnell genug für 90% der Menschen da draussen, mit ihren Anforderungen, würde ich mal schätzen.
Wie gut dein DIY Build mit Einzelteilen von Mindfactory und Amazon ist, interessiert keine Firma da draußen. Die wollen wissen, wie gut die Endprodukte sind, die man von Firmen wie Lenovo oder Dell kaufen kann und da war exemplarisch der M715q nur Mittelmaß.

Bisher war die Motivation der OEMs aber auch gering, viel Mühe in die AMD Implementierung zu stecken, weil es sowieso kaum bis gar nicht gekauft wird. Mit 7nm Zen2 und Vega iGPU ändert sich das und jeder einzelne OEM muss seine Hausaufgaben machen, sonst geht Umsatz verloren, wenn die Konkurrenz bessere und günstigere Produkte mit AMD Plattform anbietet.
 
  • Gefällt mir
Reaktionen: Nitschi66
@PS828

45Watt für die großen Apu's, meine Einschätzung. Besonders im Desktopbereich wird es darauf hinauslaufen, die 8 Kerner mit noch mehr CU's als bei der 3000 Reihe werden denke ich bei 65 Watt bleiben im Desktop.

@Stunrise

Mir ist klar das die Firmen das nicht interessiert, ich habe nur veranschaulichen wollen, das die AMD Apu's nicht so scheisse sind wie du sie hier stehen lässt. Sondern zeige den Unwillen oder die Unfähigkeit der OEM's.
 
  • Gefällt mir
Reaktionen: Nitschi66 und PS828
Cyberfries schrieb:
Wozu denn Navi?
Ne APU ist nicht zum zocken gedacht.
...

Und wenn es nur Minecraft oder PES ist...
 
HighPerf. Gamer schrieb:
@Stunrise

Mir ist klar das die Firmen das nicht interessiert, ich habe nur veranschaulichen wollen, das die AMD Apu's nicht so scheisse sind wie du sie hier stehen lässt. Sondern zeige den Unwillen oder die Unfähigkeit der OEM's.
Der M715q ist nicht direkt scheiße, er ist competitive zum gleich teuren M720q von Intel mit besserer iGPU, aber schlechterer "Overall Quality" wie der Lautstärke oder Bootzeit. Ich habe z.B. eine höhere CPU Leistung erwartet, weil Ryzen einen deutlich höheren Takt bei vergleichbarer IPC bietet. Folgendes ist aber passiert.
  • Intel hat 2,6Ghz Base Clock und lief mit ~3,2Ghz 4C8T durch das Rendering
  • AMD hat einen 3,2Ghz Base Clock und lief mit ~2,6Ghz 4C8T durch das Rendering
Dreimal darfst du raten, welcher PC im Rendering die Nase vorn hatte. Der 2400GE hat laut AMD 35w TDP und eben diesen Base Clock von 3,2Ghz und Lenovo hält sich an diese Vorgabe. Das die APU jetzt nur mit 2,6Ghz durch das CPU-Only Rendering läuft, ist offen gesagt AMDs Schuld, bei deinem DIY Build wirst du die 65w Variante haben und selbst die wird vom Board vermutlich ignoriert. Der Base Clock von 3,2Ghz bei dem 35w 2400GE ist einfach nur realitätsfern, da sind die 4,6Ghz Turbo eines Ryzen 3900X lupenrein dagegen.

Dann kommen so andere Kleinigkeiten, wie das der M715q beim Einschalten ca. 5 Sekunden mit 100% Lüfter dreht und der auf Intel basierte M720q eben nicht - daher kommt vmtl. auch die höhere Bootzeit. Aber auch die "real Performance" ist beim M720q tendentiell besser gewesen, z.B. das Initialisieren einer Citrix-Sitzung, Ersteinrichtung eines Benutzerprofils, usw.

Wer sich für den M715q entscheidet, der macht keinen Fehler, es gibt objektive Gründe dafür. Aber wer bereits einen M720q im Portfolio hat, für den gibt es nur wenig Gründe auf die M715q Variante zu wechseln bei den aktuell erhältlichen APUs.

Nitschi66 schrieb:
Einigen wir uns darauf, dass das gewählte M715q schlecht vom OEM optimiert war. Er verschenkt mit Single-Channel Ram ja auch unfassbar dämlich recht viel Leistung :D
Beide PCs waren mit 2x4GB DDR4-2666 ausgestattet. Solange ich was mitzureden habe, wird hier keine "gratis" Leistung verschenkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nitschi66
Stunrise schrieb:
Testweise haben wir einen M715q mit Ryzen 2400GE gekauft
Den Rechner hatte ich auch schon in der Fingern, nettes Teil, alles dran was man braucht. Allerdings ist die Lüfterregelung - wie du sagst - völlig grotig umgesetzt, das ginge bestimmt besser, aber Lenovo schert es nicht.
Die Leistung reißt einen nicht vom Hocker, für eine Office-PC reicht es jedoch übrig.
Was man beim Office-PC nicht vernachlässigen sollte ist die Tatsache, dass Browser zum Rendern mehr und mehr die GPU/iGPU mitnutzen. Beim aktuellen Firefox macht sich das beim Seitenaufbau und scrollen schon bemerkbar.
 
Wenn man bedenkt das sich bereits jetzt gängige Spiele wie Minecraft und CS:GO bei über 100 FPS auf dem 2200G laufen wäre es natürlich ein Traum wenn ein 8-Kerner mit schneller Grafikeinheit erscheinen würde.

Letztendlich würden Budget Systeme definitiv keine dedizierten Grafikkarten mehr benötigen und es gäbe keinen Grund mehr einen kleinen 8-Kerner ohne Grafikeinheit zu kaufen.

Besonders die ASRock A300 Serie bietet zusammen mit dem Noctua L9a ein kompaktes, leises System.
 
@Stunrise
Moment diese IPC Geschichte gilt doch erst mit Zen2 ? der Ryzen 2400GE basiert noch auf die erste Zen Generation und soweit ich mich da erinnern kann, war Intel da immernoch ein stück besser nicht nur in Games.

Aber ist nicht so wichtig, dein Beitrag hat sich für mich so gelesen als ob AMD Apu's kompletter Nonsens sind, ich wollte das ein wenig relativieren und nicht dich angreifen.


EDIT:
nanana @Stunrise nicht einfach deinen Beitrag bezgl. der IPC stillschweigend ändern, kommt nicht gut bei einer fairen Diskussion, naja.
btw. das sich der OEM bei AMD an die TDP hält wird angeprangert, aber oft genug gibt es Fälle bei denen die Hersteller sich nicht an die Angaben bei Intel halten und diesen mehr genehmigen als sie eigentlich dürften ? könnte sogar bei deinem Modell auch so sein. Ist klar das dann der AMD deutlich schlechter dasteht. Kannst du das Verhalten ausschließen ?
 
Zuletzt bearbeitet:
Was bei der Diskussion von Vega vs. Navi häufig vermischt wird, sind die achitektonische Effizienz in fps/TFlops, bei der Navi ausgesprochen gut dasteht, und die Prozesseffizienz in fps/Watt. In dem Moment, wo Navi ein Hochtaktdesign ist und Vega für niedrige Taktraten optimiert ist, wofür es Hinweise gibt, hat Vega in der APU die Nase vorn. Selbst wenn man noch mehr CUs oder MHz für die gleiche Leistung braucht.
 
Cyberfries schrieb:
Das I/O Chiplet ist schon ein Klotz an Größe und Verbrauch,

hier ist die Richtung, die für kommende Generationen als Möglichkeit vorhanden ist.

Ob, wie, und vor allem warum ein Shrink durchgeführt werden kann, ist immer strittig. Warum nicht für die neue Generation von Apu´s ein eigenes Design ermöglichen (daher auch die Verspätung) und bei Zen3 oder Zen4 (je nachdem was wirtschaftlicher ist) diese Altlast dann zu entsorgen.

"lange" Zeit werden wir dieses Konstrukt auf jeden Fall nicht mehr bei AMD sehen.

Trotzdem kann man nicht zaubern und ein Vollausbau mit 8 Kernen, 16 Freds und allen CU´s aktiv, wird garantiert keine 35 Watt unter voller Last brauchen....hier sind 100 Watt realistischer.

mfg
 
StockholmSyndr. schrieb:
Dabei kann Vega verdammt energieeffizient sein, wenn man beim Takt beim Sweetspot bleibt und ein vernünftiges Undervolting setzt.
Wo liegt denn dieser? Ich habe nur eine Navi und der "Sweetspot", also der höchste Punkt an einer Performance/Watt-Kurve, ist irgendwo extrem weit unten. Ich bin bis 1400MHz und 750mV runtergegangen und der Chip hat immer noch Effizienzsteigerungen gesehen (1400/750 = 80% der default-Leistung bei unter 100W). Für das Niveau einer default Vega64 braucht es nicht viel mehr mit einer 5700XT.
 
Es gibt nichts was ich so sehr erwarte wie endlich Ryzen 2 Kerne in APUs...Renoir bitte lass nicht so lange auf dich warten!

StockholmSyndr. schrieb:
Radeon VII
Transistors 13,230 million
Memory Bandwidth 1,024 GB/s
Shading Units 3840
TMUs 240
ROPs 64
Compute Units 60

5700XT
Transistors 10,300 million
Memory Bandwidth 448.0 GB/s
Shading Units 2560
TMUs 160
ROPs 64
Compute Units 40

Trotz sehr viel weniger Einsatz kommt so ziemlich dasselbe an Leistung raus.

Eine 5700XT schafft es in Compute Aufgaben nicht mal eine Vega64 zuschlagen (sie ist eigentlich durchgängig langsamer als eine sogar unoptimierte VEGA 64).

Eine Radeon VII ist in diesen Aufgabenbereichen teilweise fast doppelt so schnell wie eine 5700XT!

Ich denke hier war wieder nur die Spielebrille aufgesetzt...
 
@RuhmWolf

Umgekehrt bringt es auch nichts jetzt zu behaupten das nur HPComputing das wichtigste auf der Welt wäre. RDNA und VEGA sind 2 Architekturen die für ihre Einsatzzwecke gut sind, das eine für Consumer (RDNA) und das andere für die Profis da draussen (VEGA). Vega soll sogar weiter geführt werden in Zukunft (Profi Markt/ Datacenter usw.) soweit ich mich an eine Aussage von AMD erinnern kann.
 
  • Gefällt mir
Reaktionen: Smartbomb und -Ps-Y-cO-
Stunrise schrieb:
Bisher war die Motivation der OEMs aber auch gering [...] jeder einzelne OEM muss seine Hausaufgaben machen, sonst geht Umsatz verloren, wenn die Konkurrenz bessere und günstigere Produkte mit AMD Plattform anbietet.

Ganz zu schweigen von lieferbaren Produkten. SCNR

(Die Lieferzeiten bei Intel-Business-Notebooks sind momentan - oder besser gesagt: seit geraumer Zeit - echt witzlos.)
 
RuhmWolf schrieb:
Ich denke hier war wieder nur die Spielebrille aufgesetzt...

Come on....was denn sonst?

Dein Argument läuft doch schon bei Gamer Karten komplett ins Leere.

Die Apu´s hier sind die kleinste billig einsteiger Lösung für Games.

Niemand würde damit irgend welche rechenintensiven hardcore produktiv Anwendungen verwenden.

mfg

P.s.

Wenn mein IT Fuzzi mir sagen würde, er will eine 13 CU´s Renoir 35 Watt APU in seinem Produktivsystem haben, würde ich ihn mit Worten schlagen und ihm eine 35 Watt 8Kern 16 Fred APU kaufen, mit so wenig wie möglichen aktiven Gamer Cores :smokin:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HighPerf. Gamer
@RuhmWolf deshalb bleibt GCN auch noch ein wenig erhalten, besonders im computing Bereich. Ich denke mal dass AMD für ihre Profi GPUs zukünftig extra dahingehend optimiert. Mit GCN wollte man ja alles auf einmal, was nicht immer gut ist. Nimmt man aber die Stärken jeder arch. Und baut sie in entsprechende Produkte kann da etwas schönes entstehen.

Die APUs wird man "simpel" für Alltagssachen auslegen und GCN durch etwas ersetzen was besonders im Profibereich gefragt ist. Dort sind ja gänzlich andere Dinge relevant und die Marge besser. Dort ist selbst aktuell HBM profitabel, was im consumerbereich derzeit noch nicht der Fall ist.

Renoir wird sicherlich einiges ins Rollen bringen. Mal sehen in welche Richtung man die APUs drücken möchte. Evtl kommen die athlons dann als ideale HTPCs und die größeren werden für sachen wie gaming anders ausgerichtet.
 
  • Gefällt mir
Reaktionen: HighPerf. Gamer
Zurück
Oben