News Ryzen 3000 & Radeon RX 3000: Fantastische Gerüchte zu AMDs CPU- und GPU-Zukunft

Einige haben wirklich eine Engelsgeduld die jeweiligen HC Fans zu beackern. Lasst Sie doch und ignoriert das. Fakt bis hier her ist, dass AMD mit ZEN und ZEN+ genau das abgeliefert hat was versprochen war und das auch noch zu einem hervorragenden Preis. Das ist auch im HEDT Segment und im Server Segment vollzogen worden. Warum sollte AMD davon jetzt komplett abweichen? AMD braucht wie Nvidia eine Legendäre Version - ich nehme hierfür die 8800GTX - damit man in den Köpfen der Konsumenten wieder richtig, und vor allem im richtigen Kontext "Premium", wahrgenommen wird. Das wird doch sehr klar wenn man sich die Kommentare im Forum hier ansieht. Und da sprechen wir von Leuten, die sich "eigentlich" mit der Materie beschäftigen. Der normale "Dau" im Mediamarkt kommt da ja noch oben drauf, dem man das beweisen muss. Diese Chance muss AMD nutzen, vor allem in der jetzigen Situation mit den Problemen bei Intel. Das folgt auch der bisherigen Strategie und wird so weitergehen, bis man sich wieder richtig etabliert hat am Markt.
Wie von einigen schon geschrieben, wird der Ausschuss mit den neuen Chiplets sehr gering ausfallen. Die Preise solten entsprechend gehalten werden können für die direkten Nachfolger. Wobei ich auch von den Launchpreisen der vorherigen Gen ausgehe.
Was Intel dagegen halten kann warten wir mal ab. Alerdings sehen die eigenen Einschätzungen von Intel ja nicht so gut aus. 10nm erst in 2020. Da wird erstmal der Server Bereich abgedeckt, damit man was gegen die dann schon etablierten Epyc Rome CPU´s setzen kann. Wann und wie das dann wirklich in unserem Marktbereich kommen wird, dass steht noch in den Sternen. Ihnen wird nichts anderes übrig bleiben, als 2019 noch mal einen 14+++ 10Kerner versuchen aufzulegen. Wenn man sich aber die Ergebnise von Igor so ansieht zum echten Verbauch des 9900K, wie soll das denn noch thermisch gehen.....
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Volvo480, Smartbomb, TheBear1517 und 3 andere
Seskahin
Ich hatte in den Kommentaren gelesen, dass Intel damals schlechter ging zu Athlon64 Zeiten. Ich sehe das anders, denn es ist das erste mal, dass AMD Intel eigentlich dort trifft, wo es ihnen am meisten weh tut. Nicht nur im Design, sondern in der Fertigungs-Technik. Das Modulare ermöglicht AMD schon günstiger zu fertigen, als Intel. Man sieht ja schon bei aktueller Generation, dass Intel da nicht einfach mal die Preise senkt.
Jetzt folgt, dass AMD sogar Zugriff auf Modernste Fertigung bekommt und erstmals eine Zeit lang Intel überfliegen wird.

Man ist einfach gespannt. Es kann wie du es beschreibst, der damalige Hammer sein, der Intel vllt, auch wenn es nur kurz ist, in allen Bereichen überfliegt. Beim Epyc könnte das bereits passieren, aber im Desktop wäre das noch mal ein Statement. Man darf gespannt sein, aber auch schon ein 12 Core, würde das bereits erreichen.

Am Ende hängt alles davon ab, wie die Latenzen mit den I/O Chip sind. Die meisten gehen hier eher von langsamen aus. Aber in Realität weiß das keiner. Die Realität ist, der F-Bus ist mit den RAM-Takt gekoppelt. Das war aber nicht der Fall, in der Kommunikation "zwischen" Dies, nur innerhalb eines DIEs. Ich kann mir gut vorstellen, dass der Takt wesentlich höher ist, als bisher, solange der Transfer der Chips zum I/O gleich schnell ist, muss man eigentlich nur das Verhältnis des f-Bus zum Ram-Takt ändern.

Kurz, auch wenn das alles hier nur Gerüchte sind, die Realität ist, aufgrund von Epyc, ist so ein 16 Core Chip "machbar". Er könnte kommen und daran ist nichts abzustreiten. Es kommt auf AMD an, was sie am "wirtschaftlichsten" sehen.

Sie können Anfangs auch nur 8 Core Modelle liefern und Schritt für Schritt weitere Modelle einführen. So ein Chiplet Design erlaubt das und Threadripper ist auch nicht unglaublich teuer, obwohl da 4 bis 2 Dies vorhanden sind.
 
Entspannung dürfte bei Intel dieses Jahr ausfallen Weihnachten...)
 
@pipip Ich gehe auch nicht von einem 16-Kerner vom Start weg aus. Aber die 12-Kerner werden wie der Rest von Anfang an kommen. Das wäre mit teildefekten 8-Kern Chiplets ohne Probleme möglich. Aber wer weiß. Vielleicht ist die Anbindung mit dem IO auch besser gelöst als mit der IF bisher und die könnten auch ohne Performanceeinbußen vier Chiplets anbinden im Mainstream Segment?! Also für 16-Kerne 4*4+SMT, also keine Dummy Chiplets mehr?! Wird auf jeden Fall spannend. Sonst werden es halt teildefekte 8-Kerner Dies, mit 2*6+SMT für die 12-Kerner. Sollte wirklich klappen mit den kleinen Dies.
 
Holt schrieb:
Das halte ich durchaus für realistischer als die Werte aus den Gerüchten, dann würden aber 10% mehr IPC nicht reichen um pro Kern die gleiche Performance
Also du hälst 3,4 bis 3,6 GHz für 8 Kerne und 65w für realistisch(er)? Quasi das, was ich von Anfang an für die Rechnung zu 20% mehr Takt benutzt habe?

3,0GHz R7 1700 zu 3,6GHz R? 3?00 65w

Dazu dir 10% IPC und man liegt übrigens einiges über den 25% Mehrleistung bei gleicher Kernzahl, die du vorher nicht akzeptieren wolltest. Diese 25% gingen auch schon mit 3,4GHz, wenn die IPC zu Ryzen 1 dann um 15 bis 17% steigt. Das wären ja etwa 10% zum Ryzen 2000.

Holt schrieb:
Ein Zen2 würde also die Vorgänger mit der gleichen Anzahl an Kernen nicht schlagen
Aber jetzt wiedersprichst du dir doch? Der Vergleich war schon immer Zen zu Zen 2, Ryzen 1000 zu Ryzen 3000, da die Epyc nie Zen+ hatten. Wie sollen die denn nicht Zen 1 schlagen?

Damit Ryzen 3 den Vorgänger nicht schlägt müssen jetzt alle 3 von uns, @RYZ3N der die IPC Verbesserung auf 7-10% schätzt, Ich da ich die Leistung 25% höher schätze, und du selbst, da du unsere Zahlen ja jetzt für realistisch hälst, falsch liegen.

Holt schrieb:
Die TDP ist vor allem für den Basistakt relevant
Und mit dem rechne ich, denn du kannst nicht einfach den Turbo benutzen. Da kann man einfach einen besseren Kühler nehmen und schon sieht es anders aus.

Bei Broadwell war es außerdem nicht Broadwell S, sondern "Broadwell DT", was wohl eher ein Broadwell H, als ein S Chip war. Die sind auch niedrigeren Takt und höhere Effizienz ausgelegt, da sie in Laptops kommen. Die iGPU GT3e gab es ja sonst nie im Desktop und nur für Notebooks/NUCs.

Holt schrieb:
nun wirklich kaum mit dem Z390 zu vergleichen,
Falls es darum geht, dass der bei viel I/O limitiert, da er so wenige PCIe lanes hat, dann doch klar. Die Anbindung bei Intel bremst das auch aus. Der hat zwar mehr PCIe lanes aber die haben nicht alle gleichzeitig die volle Geschwindigkeit.

Die boot NVME kann ich direkt an die CPU anschließen. Die braucht sich die Datenrate nicht teilen.

Holt schrieb:
Auch das ist so ja nicht richtig.
Das war nie meine Aussage. Das war eine überspitzte Zusammenfassung von Zero_Point's Aussage, dass optimierte Multicore Benchmarks nichts Aussagen, was irgendwie relevant ist.

Holt schrieb:
Schwarz - Weiß Denken hilft hier gar nichts. Wäre es einfach, bräuchten die Reviewer nicht so viele Benchmarks und Programme durchzutesten.
Naja wenn Cinebench einmal nicht zählt dann kann der zweite Test ja auch nicht zählen. Du kannst doch nicht einfach einen für irrelevant erklären, weil AMD besser abschneidet und Leute wie ich, die eine Intel CPU nutzen, da verlieren. Der Test bleibt neutral und gut.

Nur, weil ein Programm besser mit Kernen skaliert ist es nicht irrelevant. Es bleibt ein gutes Benchmark, da Videobearbeitung oft gut skaliert. Vielleicht nicht ganz so gut, aber noch immer ziemlich gut.
 
Zero_Point schrieb:
Weil ein SC Benchmark wesentlich repräsentativer ist. Nur wenige Programme und Spiele können 8 Kerne + SMT voll ausnutzen. Bei SC kannst du daher gut hochrechnen wie gut eine CPU bei Programm X, das 2 oder 4 Kerne nutzt im Vergleich zu einer anderen CPU abschneiden würde.[...]

Da hatte ich jetzt mit einer wissenschaftlicheren Antwort gerechnet; so greifst du dir doch wieder nur heraus, was deinen Punkt unterstreicht. Und das nicht einmal belegbar.

Denn, wer legt denn fest, was repräsentativ ist?

Prinzipiell hast du zwar mit der Aussage recht, dass nur wenige Programme und Spiele 8 Kerne + SMT voll ausnutzen können, aber wenn du in den Bereich "gefühlte Performance" abdriftest, ist auch nicht mehr die SC Leistung entscheidend, sondern das Gesamtsystem. Da macht eine SSD bisweilen einen größeren Unterschied, als 50 Cinebench SC Punkte.

Im Endeffekt nutzen auch nur die wenigsten Programme die SC Leistung durchgehend komplett aus. Ein inzwischen betagter i7-2600K kommt z.B. nur auf 131 Cinebench Punkte und liegt damit ~25% hinter einem Ryzen 7 1800X (im Multicore sieht es selbstredend noch schlechter aus).
Kombiniert man den aber mit einer GTX 1080 und zockt in höheren Auflösungen, egalisiert sich der Nachteil wieder. (Quelle)

Ist das jetzt weniger repräsentativ? Oder mehr?

@Holt
Ich habe doch extra geschrieben, dass der 0815 User mit Spatzen auf Kanonen schießt und zu der Aussage stehe ich auch. Wer nur Office, Internet und ein bisschen Multimedia mit seinem Rechner betreibt, und das ist global betrachtet nunmal die Mehrheit, der schießt quasi mit jedem* Quadcore seit 2015 auf Spatzen.
Selbst ein Rechner mit gut gepflegtem OS, SSD und i5 2500 aus dem Jahr 2013 erledigt das heute noch ohne ins Schwitzen zu kommen. Die Upgrade Zyklen werden für den Otto Normalverbraucher doch eher länger, was diesen Trend unterstreicht.
Wir als Forum sind da natürlich nicht repräsentativ, denn wenn man sucht, findet man immer Anwendungen, die mehr Leistung vertragen können, aber der Kreis derer, die das brauchen wird kleiner. HEDT wird eben zu einer immer kleineren Nische, wenn Intel und AMD schon im Desktop 8 oder wie hier vermutet 16 Kerne anbieten.

Wer natürlich Folding@home betreibt, kann gar nicht genug CPU Power haben und Rechenzentren für Wirtschaft und Wissenschaft ebenso wenig.

Wie gesagt, dass soll jetzt nicht heißen, dass ich mir keine Fortschritte in der CPU Technik wünsche, denn ich sehe ja, wo noch immer mehr Leistung benötigt wird, aber wir sind an einem Punkt angelangt, an dem sich bestimmte Prozesse einfach nicht mehr beschleunigen lassen.

Schneller als 'sofort' kann sich mein Browser eben nicht öffnen.

PS.: Den letzten Absatz bitte nicht als
"640K ought to be enough for anybody."
interpretieren. Ich bin nicht so verrückt, anzunehmen, dass der jetzige Stand selbst für Max Mustermann ewig "ausreichend" seien wird, nur wird er es länger sein, als die bisherigen Standards.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stinger2k und Nager47
16 Kerne wären schon ein Ding...aber irgendwie glaube ich nicht daran...Obwohl Anreiz wäre da, xD :D

Auf der anderen Seite, BF V läuft auf meinem i7 7700k und GTX 1080 TI @1440 alles auf Mittel zwei auf Hoch und das Teil zaubert zwischen +- 130 - 145 fps auf den Schrim.
BV5 wird ja immer als Paradebeispiel für Multicore erwähnt.
 
Zero_Point schrieb:
Bei SC kannst du daher gut hochrechnen wie gut eine CPU bei Programm X, das 2 oder 4 Kerne nutzt im Vergleich zu einer anderen CPU abschneiden würde.
Dass meinst du nicht ernst oder?

Dann ist meine 15w U CPU mit 3,9 GHz also schneller, als ein i7 2600k? Gut danke, dann Wechsel ich jetzt von allem weg auf einen Laptop mit so vielen Punkten im SC, wie nur möglich.

Nur so für dich mit dem i7 8550u:

160 Punkte Singlecore im Schnitt (alle Geräte)
*4 (die Kerne)
+30% (HT auf allen Kernen, 192 Punkte)
= 832 Punkte

Es sind aber nur 575 Punkte (multithread, Durchschnitt aller Geräte) dass ist ein Unterschied von 257 Punkten. Das sind fast 31%. Skaliert ja super
 
Zuletzt bearbeitet:
Man kann doch sicher davon ausgehen, das die neuen Zen 2 CPÙs zusammen mit den neuen X570 Mainboards erscheinen.

Die neuen X570 sollen doch bereits über PCIe 4.0 verfügen.
Jetzt stellt sich mir die Frage ob nicht auch bereits die Zen 2 CPU‘s über 4.0 Lanes verfügen.

Oder vertausche ich da PCIe 4.0 mit den Lanes die der CPU zur Verfügung stellt?

Kann mich da noch gut an mein altes Board mit dem z68 Chipsatz von meinem i7 2600k erinnern. Das hatte bereits PCI 3.0 der i7 2600k aber nur PCIe 2.0 Lanes. Um PCIe 3.0 nutzen zu können hätte ich z.B. einen i7 3770k gebraucht.
 
Zuletzt bearbeitet:
usb2_2 schrieb:
Dass meinst du nicht ernst oder?

Dann ist meine 15w U CPU mit 3,9 GHz also schneller, als ein i7 2600k? [...]

Jetzt versteif dich doch nicht so auf die diversen Benchmark Werte. Für den 0815 User mit 0815 "Work"load sehe ich den 8550u tatsächlich vor dem 2600k.

Warum auch nicht? Der Prozessor ist wesentlich neuer und damit in erster Linie sparsamer, hat aber in der IGPU z.b. alle neuen Codecs und bietet die modernere Plattform inkl. DDR4 Unterstützung, PCIe SSDs und aktuellerer I/O.

Für dem 0815 User ist das (in der Regel) sinnvoller, als ein höherer, dauerhafter Allcore Turbo. Wer darauf allerdings angewiesen ist, ist natürlich mit dem 2600k auch heute noch besser bedient.

Die CPU Welt ist einfach nicht mehr schwarz-weiß, sonst müsste man ja bei jeder Anfrage einen 9900K oder gar Threadripper empfehlen.
Das soll aber nicht heißen, das ich @Zero_Point und seiner mMn kruden "SC Benches sind schon in Ordnung" Logik zustimme, wie du meinen anderen Antworten sicher entnehmen kannst.
 
Martinfrost2003
Der I/O Chip würde auf alle Fälle eine Abwärtskompatiblität erlauben, die man dann auch bis 2020 halten könnte. Vllt ist das wiederum ein Grund, wieso Ryzen 3000 mit einem I/O Chip kommt. Man wird es sehen.

Wie gesagt, die Bus Kommunikation zwischen DIE to Die sind aktuell auch schneller als direkt zum RAM.
Dadurch man die Abhängigkeit zum Speicher in den I/O Chip rausnimmt, könnte der Fabric Bus, zwischen Chiplet und I/O auch schneller getaktet sein, beispiel eben mit 100 GB/s statt den bisher ca 40 Gb/s, die zwischen den CCX im Ryzen 1000/2000 ist, da innerhalb des CCX die Daten auch nicht mehr direkt zum Speichercontroller kommunizieren müssen.
Aber gut, das sind nur Vermutungen, wir werden am Ende erstmals mit Epyc sehen, wie das aussieht.

https://images.anandtech.com/doci/11697/threadripper_architecture-final_16.jpg

Das sieht man hier, die Die to Die Kommunikation läuft hier mit 100 GB/s. Die neuen Vega 20 Grafikkarten nutzen auch schnellere Frequenzen zur direkten Kommunikation.

Kurz falls AMD es schafft, die Abhängigkeit zum RAM durch das Auslagern des Si zu entkoppeln, kann die Kommunikation zwischen I/O und Chip oder Chip zu Chip über I/O schneller ausfallen und die Latenzen bleiben im bisherigen Rahmen (oder vllt existiert auch noch ein Bus Chip to Chip) . Auch nicht zu vergessen, dass der L3 Cache gewachsen ist, der einiges kompensieren könnte. Das hat man schon beim R3 1400 vs R3 1500X gesehen, wo die Halbierung des L3 Cache negative Einflüsse hatte.




Man sieht bei Epyc 2 dass jeweils zwei DIE sehr nah beieinander geparkt sind. Könnte für eine Kommunikation zwischen den jeweiligen Die sprechen. So ein Verbund mit einem kleineren I/O würde auf AM4 grob passen.

Bisher wird ja gegen diese 3 Chip Lösung geredet, weil man zu hohe Latenzen erwartet. Dabei sagen es eh viele, wer nur Gaming will, kauft sich vermutlich in erster Linie sowieso einen R5 mit maximal 8 Cores und da geht man direkt von Chiplet über den I/O Chip zum Ram.

Mit PCIE4 erlaubt es AMD aber dann die AM4 Plattform auch für mehr Profi Anwendungen oder Gamer die nebenbei per CPU streamen wollen. Threadripper hingegen wird immer mehr zu einem Begriff, es es bei NV die Titan ist. Eben Workstation aber auch interessant für kleinere Unternehmen.
Zumindestens, falls technisch und wirtschaftlich sinnvoll für AMD ist und sie das so am Ende auch umsetzten. Die Sicherste Variante wären natürlich eigene Chips für AM4, aber dann würde man auf eine APU setzen mit 8 Cores oder wieder einen Chip für Desktop und für Notebooks benötigen.

Letzteres ist auch ein Punkt, es wird spannend, wieviel so ein 14nm I/O Chip "verbraucht". Anderseits gab es von Intel auch Chips, die den Chipsatz mit anderer Fertigung am Package hatten.

Es bleibt zu mindestens spannend, was am Ende wirklich kommt. Kaveri hatte auch ein größeres SI und konnte mit GDDR5 umgehen. Ein Produkt kam damit aber nicht auf den Markt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Martinfrost2003
Stanzlinger schrieb:
Weil Intel rauf steht und pro MHz bietet Intel mehr Leistung. Ich werde immer Intel kaufen - mit AMD verbinde ich mangelnde Stabilität seit dem K6-2 Desaster


also mein k6-2 und auch der k6-3 liefen problemlos, genau wie meine P2, P3, athlons, XPs, P-M, bartons, A64, C2Q, i7, ryzen...

99% der fehler sitzen wie immer vor dem rechner. :daumen:

und mhhh... pro MHz bietet intel mehr leistung... ich glaube das ist erst seit der core serie so, vorher waren intels pro-takt IMMER!! langsamer... und nen 2600X und nen 8700k trennen bei gleichem takt in anwendungen grad mal 2% zugunsten intels, in games sinds ca. 10%... und da sollte man nicht vergessen: komplett ausgereizte und optimierte architektur, wärend ryzen erst am anfang steht...
 
  • Gefällt mir
Reaktionen: DonL_
XTR³M³ schrieb:
und mhhh... pro MHz bietet intel mehr leistung... ich glaube das ist erst seit der core serie so, vorher waren intels pro-takt IMMER!! langsamer... und nen 2600X und nen 8700k trennen bei gleichem takt in anwendungen grad mal 2% zugunsten intels, in games sinds ca. 10%...

Ist wie im Sport: Wer der Schnellste ist, ist der Beste. Und ich will das Schnellste!
 
Stanzlinger
Ja, aber nicht jeder will das schnellste um jeden Preis.
 
  • Gefällt mir
Reaktionen: dalaidrama, lanoo, killertomate285 und eine weitere Person
@usb2_2
leider vegisst du die Turbo Stats deiner Mobile CPU zu beachten. gesamt Singel Leistung ohne turbo
sind nur 115 + 20% HT macht 143,75 was dann dein Ergebnis bringt. Die Trubo stufen grade bei Mobile sind sehr enorm gegen Single Kern Last und All Core.

Einige hier haben Vermutungen die sich leider so nicht beweisen lassen, aber Ansätze hat AMD gegeben was ihr Ziel ist und das sie derzeit über dem Ziel liegen. Es ist also davon auszugehen das Ryzen 3000 definitiv schneller sein wird auch Takt bereinigt als Zen+ auch wenn es hier leute gibt die das nicht so sehen, das ist das Leben die Vielfalt der Meinungen.
Bestätigt wird es eh erst werden können wenn die CPUs rauskommen.
lg
 
Stanzlinger schrieb:
Ist wie im Sport: Wer der Schnellste ist, ist der Beste. Und ich will das Schnellste!

zeedy 2.0?
 
  • Gefällt mir
Reaktionen: lanoo, Acedia23, Rock Lee und eine weitere Person
Die neue Möglichkeiten mit dem I/O-Hub sind in dem Sinn enorm und vorallem beim einsparen Kosten, da teilweise defekte Chiplets mit nur 2 funktionierten Cores kombiniert mit GPU für Low-Cost im Embedded-Bereich oder gar die defekten Chiplets als Dummies zu verwenden werden können.
Ich freue mich schon auf die Präsentation.
mögliche Zen 2 kombis.png
Ich mußte gerade an den Film denken "Die rechte und die linke Hand des Teufels":

Intel bekommt es momentan Fausdickt hinter die Löffel
Qualcomm (die rechte Hand des Teufels) in 15W CPU-Bereich
AMD (die linke Hand des Teufels) im Server und Mainstream-Bereich
 
  • Gefällt mir
Reaktionen: Smartbomb und Rockstar85
Zurück
Oben