News AMD Raven Ridge: Der Athlon lebt und tritt wieder gegen den Pentium an

warti schrieb:
Kann man denn die TDP Angeben von Intel mit denen von AMD vergleichen?

Ich vergleiche AMD mit AMD.

HaZweiOh schrieb:
Hast du mal die Leistung verglichen? Die IPC des 5350 war glaube ich ungefär Kaveri-Niveau, aber der Takt nur bei 2 GHz. Jetzt haben wir Ryzen-IPC und dazu noch 3,2 GHz Takt.

Dafür 4 echte Kerne und nur 25W TDP. Ich sage nicht, dass die CPUs schlecht sind. Aber ich hätte mehr erwartet, bei der Zeit und dem Technologiesprung, der dazwischen liegt.
4/8 bei 35W und sagen wir 2.8 GHz, das würde mir so vorschweben.Die Grafik muss hingegen nur vorhanden, aber nicht besonders leistungsfähig sein.
 
Ja, vier echte langsame und beschränkte Kerne, sagt einfach nichts aus...

Möglich ist es ja, nur nicht bei den Gesockelten vorgesehen. TDP sind sowieso nur grobe Richtwerte und sagen wenig über Verbrauch und schon garnichts über Effizienz aus.

In Notebooks und als Embedded gibt es Raven-Ridge mit 15W TDP und sogar weniger (cTDP)

Unterm Strich ist Raven Ridge effizienter als Jaguar und Co.
 
Das hier ist ein low end-Modell. Die 4/8 bei 35W bringt AMD bei den GE-Modellen.

Die 52 % mehr IPC war schon im Vergleich zu Excavator.

Und Passmark taugt wirklich nicht viel. Für Office ist der PC Mark interessant, wo auch echte Anwendersoftware läuft.
 
Zuletzt bearbeitet:
Ozmog schrieb:
Der A6-9500E wird in allen belangen gegen den Athlon 200GE verlieren, Wette ich drum.
Die Wette nehme ich gerne an.

Die 192 Shader Vega3 im 220GE, die vermutlich mit 1.100 MHz takten, werden es gegen die 256 Shader der A6-9500E-Grafik, die gemütlich mit 800 MHz laufen, nicht reißen. (Der normale A6-9500 hat 384 Shader, genauso viel wie der A8-9600, nur läuft die APU des A6 mit 1.029 MHz statt der 900 MHz des A8 -> ist ein extrem hochgezüchtetes Teil.) Aber für 35 Watt TDP hat der 9500E nach dem 9800E die zweitstärkste Grafik.

Als Wetteinsatz schlage ich vor, dass der Verlierer einen Monat lang als alleinige Signatur folgenden Satz verwendet:
Ich habe die Wette verloren, dass der Athlon 220GE dem A6-8500E in allen Belangen überlegen ist.

Und beim Prozessor-Vergleich schätze ich am Singlethread-Passmark, dass er von allen flächendeckenden Benches die größte Praxisrelevanz hat. Für den Normalo ist höchstens die WorkSuite des PCMarks aussagekräftiger - und da werden 220GE und 9500 auch auf Augenhöhe sein.
 
Für den Normalo wird der GPU-Teil heutzutage immer relevanter, dein Browser rendert die Webseiten inzwischen mit der GPU. Dazu Bildbearbeitung, VP9-Videos von YouTube, das sollte schon einfließen.
Der Chip heißt 200GE, die 220 aus dem Artikel ist falsch.
 
Nagut, irgend eine Nische findet sich sicher, in dem der 9500E punktet, die muss man aber schon suchen.

Der 9500E hat von der größeren Grafik wenig, in Spielen sollte der Athlon doch noch schneller sein, da das TDP-Budget und die Prozessorleistung einbremsen.
 
Und alle Anwender würden zum neuen Athlon greifen, wenn der GPU-Teil leicht langsamer und der CPU-Teil deutlich schneller wäre.
 
Ich hätte den auch gerne genommen, wenn ich nicht schon den 2200G genommen hätte. Gerade in den einen Rechner wäre er optimal, viel Grafikleistung nicht notwendig, weil zu über 80% als Musikplayer genutzt und sonst fast nur Youtube, Netflix und ein bissel im Internet surfen. Bristol Ridge wollte ich da nicht mehr nehmen, daher wurde es eben noch ein 2200G.
 
klingt für mich irgendwie nach Resteverwertung, extra hergestellt werden solche low chips doch nicht oder?
 
Betrachte es wirtschaftlich: wer soll bei den low end CPUs verdienen: du oder die Konkurrenz?

Die Produktion ist gut eingefahren. Es werden wohl häufiger "bessere" Chips beschnitten, weil man lieber einen günstigen Chip mehr verkauft als sich das Lager mit zu vielen "schnellen" Chips zu füllen, die dort kein Geld bringen.

Das wird sich schon lohnen, sonst gäbe es gute Gründe, den Athlon nicht zu bringen.
 
Zuletzt bearbeitet:
Ozmog schrieb:
In Notebooks und als Embedded gibt es Raven-Ridge mit 15W TDP und sogar weniger (cTDP)

Nur sind das keine Low Cost CPUs mehr, wie der Athlon5350. Der war gesockelt, hatte 4 echte Kerne, Low Cost. IPC und Takt sind sicher deutlich niedriger, aber das wird durch 4 echte Kerne eben auch teilweise kompensiert.
Wenn man dann noch sieht, dass ein Teil der IPC allein vom besseren Subsystem kommt (z.B. RAM), dann ist das alles nicht so spektakulär mit dem neuen Athlon. Und nichts anderes sage ich.

Unterm Strich ist Raven Ridge effizienter als Jaguar und Co.

Ich habe nie das Gegenteil behauptet. Nur ist das bei einer 2/4 Version halt nicht so spektakulär.
 
Juri-Bär schrieb:
@Taxxor: Vega 6 erreicht 776 GFLOPS, die Grafik des A6 schafft 790 GFLOPS. Wie hoch die R3 beim 220GE getaktet ist, weiß man nicht. Aber vermutlich sind es die 1.100 MHz, die beim R3-2200U (oder auch G) anliegen. Dann schafft die R3 388 GFLOPS, weniger als die Hälfte vom A6.

Nimm Mal den Test
https://www.computerbase.de/2018-02...idge/2/#abschnitt_die_leistung_in_anwendungen

Die Vega 8 des 2200G ist mehr als doppelt so schnell wie die R7 Grafik in einem A12.

Juri-Bär schrieb:
Mit der IPC-Steigerung von 52% liegst Du vielleicht bei Piledriver (FX 8xxx) richtig, aber nicht bei BristolRidge. Der normale R3-2200G mit 3,7 GHz Turbotakt erreicht im Singlethread-Passmark 1819 Punke, liegt also nur 3% vor den 1776 Punkten des A6-9500 mit 3,8 GHz Turbo. Der 220GE mit 3,2 GHz wird rechnerisch in den meisten praktischen Singlethread-Anwendungen geringfügig lahmer arbeiten, als der A6.
Nein die Steigerung bezog sich auf excavator, also Bristol Ridge.
Und nimm doch mal Werte wie aus dem CB Test.
Da liegt ein 2200G mit 3,7GHz Turbo im Singlecore 52% vor einem A12-9800E mit 3,8GHz Turbo.Entspricht ziemlich exakt der IPC Steigerung.
Auch die restlichen getesteten Anwendungen sprechen für sich
 
  • Gefällt mir
Reaktionen: ThePowerOfDream
Juri-Bär schrieb:
Die Wette nehme ich gerne an.

Die 192 Shader Vega3 im 220GE, die vermutlich mit 1.100 MHz takten, werden es gegen die 256 Shader der A6-9500E-Grafik, die gemütlich mit 800 MHz laufen, nicht reißen. (Der normale A6-9500 hat 384 Shader, genauso viel wie der A8-9600, nur läuft die APU des A6 mit 1.029 MHz statt der 900 MHz des A8 -> ist ein extrem hochgezüchtetes Teil.) Aber für 35 Watt TDP hat der 9500E nach dem 9800E die zweitstärkste Grafik.



Hier 512 shader gegen 512 shader....

Gpu´s kann man nicht mit Takt oder Shader vergleichen, es wäre halt nur möglich, wenn Sie die selbe Architekturen haben.

Wäre das selbe wie wenn ich die 4096 shader der vega mit Nvidias shader vergleiche, nur sagt mir das nichts über die leistung aus.

Am ende zählt nur die Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor, HaZweiOh und ThePowerOfDream
Juri-Bär schrieb:
Die Wette nehme ich gerne an.

Die 192 Shader Vega3 im 220GE, die vermutlich mit 1.100 MHz takten, werden es gegen die 256 Shader der A6-9500E-Grafik, die gemütlich mit 800 MHz laufen, nicht reißen. (Der normale A6-9500 hat 384 Shader, genauso viel wie der A8-9600, nur läuft die APU des A6 mit 1.029 MHz statt der 900 MHz des A8 -> ist ein extrem hochgezüchtetes Teil.) Aber für 35 Watt TDP hat der 9500E nach dem 9800E die zweitstärkste Grafik.

Als Wetteinsatz schlage ich vor, dass der Verlierer einen Monat lang als alleinige Signatur folgenden Satz verwendet:


Und beim Prozessor-Vergleich schätze ich am Singlethread-Passmark, dass er von allen flächendeckenden Benches die größte Praxisrelevanz hat. Für den Normalo ist höchstens die WorkSuite des PCMarks aussagekräftiger - und da werden 220GE und 9500 auch auf Augenhöhe sein.

Du hast ziemlich wenig Ahnung,um es mal diplomatisch auszudücken!
 
Taxxor schrieb:
Die Vega 8 des 2200G ist mehr als doppelt so schnell wie die R7 Grafik in einem A12.
Das stimmt ja man gerade so, wenn man den Energiespar-A12 vergleicht und dessen durch die geringe TDP ausgebremste Rechengeschwindigkeit in Spielen mitberücksichtigt. Der normale A12-9800 liefert z.B. in Total War: Warhammer II trotz schlechterem CPU-Teil ca. 90% der fps, die ein 2200G liefert, weil die Grafikleistung durchaus vergleichbar ist.

Aber was hat das mit der Diskussion hier zu tun?

Hier geht es nicht um den 2200G mit einer Vega8-Grafik, sondern um den 200GE mit einer Vega3-Grafik, die nur ein Viertel der Leistung der Vega8 bringt - und halb so viel Leistung wie die Grafik des Billig-A6.

AMD wirbt für den Athlon hinsichtlich des GPU-Teils mit einem lausigen Vorsprung von 67% vor dem Pentium - ich hab' Zweifel, ob man das noch APU nennen darf.

und @DonL_ : Full-Quote und einen einzigen Satz mit unqualifizierter und unbegründeter Meinungskundgabe liest man doch immer wieder gerne!
 
Juri-Bär schrieb:
AMD wirbt für den Athlon hinsichtlich des GPU-Teils mit einem lausigen Vorsprung von 67% vor dem Pentium - ich hab' Zweifel, ob man das noch APU nennen darf.
Wieder jemand, der den Begriff APU nicht verstanden hat und meint er hätte irgendwas mit besonders schneller Grafik zu tun.
APU bedeutet einfach dass es eine CPU ist, die von einem Co-Prozessor beschleunigt(accelerated)wird.
Nichts anderes sind fast alle Intel CPUs, nur nennt sie Intel nicht so.
Juri-Bär schrieb:
Full-Quote und einen einzigen Satz mit unqualifizierter und unbegründeter Meinungskundgabe liest man doch immer wieder gerne!
happylols Post war ein völlig qualifizierter Beitrag zu deiner unqualifizierten Schlussfolgerung, man könne die Leistung von zwei völlig unterschiedlichen GPU Architekturen durch ihre Shaderzahl und ihren Takt vergleichen.
Dass eine Vega bei gleicher Shaderzahl doppelt so schnell ist, wie die alte R7 Grafikeinheit, zeigt das sehr gut
 
Zuletzt bearbeitet:
Juri-Bär schrieb:
. Der normale A12-9800 liefert z.B. in Total War: Warhammer II trotz schlechterem CPU-Teil ca. 90% der fps, die ein 2200G liefert, weil die Grafikleistung durchaus vergleichbar ist.
Gratulation du hast die eine Ausnahme gefunden, in der die beiden APUs nur 10-20% auseinanderliegen. Solltest du dir das Video von happylol nicht angesehen haben, hier noch mal.

In fast allen spielen liegt der 2200G 30-50% vorn.
Vergleichbar ist das nicht.
FIFA und die erste Szene von Battlefield kann man mit +100% rausnehmen, da CPU Limit beim A12. Die restlichen Battlefield Szenen ohne CPU Limit liegen dann ebenfalls bei 30-40%
 
Zuletzt bearbeitet:
Taxxor schrieb:
FIFA und die erste Szene von Battlefield kann man mit +100% rausnehmen, da CPU Limit beim A12.

Brauch man gar nicht rausnehmen, wenn es dann Athlon 200GE vs A6-9500E heißt. Der wird, sofern man Spiele da drauf laufen lassen will mit so dünner Grafik, auch nicht selten Richtung CPU-Limit laufen.
 
@Ozmog ja, aber es ging mir hier rein um die Leistung der iGPU, da macht es keinen Sinn, Vergleiche zu nehmen wo eine iGPU gar nicht voll arbeiten kann.

Noch anzumerken ist, dass man die beiden auch nicht an ihren GFLOPS vergleichen kann, wie es @Juri-Bär ja ein paar Seiten weiter vorne auch schon gemacht hat. Man möge sich den CB Test zu den GPU Generationen von AMD ansehen und dort die TFLOP Unterschiede mit den realen Leistungsunterschieden vergleichen. Es lässt sich nicht 1zu1 umrechnen.

Dann kommt noch dazu, dass die verschiedenen Architekturen unterschiedlich skalieren, Vegas GCN5 dürfte im Allgemeinen sehr viel besser nach unten skalieren, als die GCN3 von 2014 im Bristol Ridge
 
Zuletzt bearbeitet:
Zurück
Oben