Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Ryzen 3000 & Radeon RX 3000: Fantastische Gerüchte zu AMDs CPU- und GPU-Zukunft
- Ersteller Jan
- Erstellt am
- Zur News: Ryzen 3000 & Radeon RX 3000: Fantastische Gerüchte zu AMDs CPU- und GPU-Zukunft
Jim Parker hat einige der Gegenargumente aufgegriffen und kommentiert:
Er hält an sehr vielen Details fest, lediglich soll es jetzt keinen IO-Die mehr für Desktop Zen2 geben. Direkte Kommunikation zwischen 2 Chiplets stattdessen. Das Video ist ganz interessant anzuschauen, aber wir werden wohl erst im Januar wissen, was wirklich geplant ist
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Er hält an sehr vielen Details fest, lediglich soll es jetzt keinen IO-Die mehr für Desktop Zen2 geben. Direkte Kommunikation zwischen 2 Chiplets stattdessen. Das Video ist ganz interessant anzuschauen, aber wir werden wohl erst im Januar wissen, was wirklich geplant ist
Doch, das hat Intel in Planung, aber nur ein leistungsstarker Kern in Kombination mit vier leistungsschwächeren, energiesparsamen Kernen.IBISXI schrieb:@ Winnie
Das wird ohnehin nicht kommen, war nur eine Idee.
Vermutlich wird die Umschaltung zwischen diesen von der CPU in Hardware gesteuert u. nicht in Software, wie bei big.LITTLE von ARM.
- Registriert
- Apr. 2011
- Beiträge
- 3.016
OK, ich versuche mal ohne einen TLDR-Text zu verfassen die aktuellen Gerüchte einzuordnen.
Vorab: Ich wusste ja schon irgendwie, dass zu dem AdoredTV-Leak noch ein Nachfolgevideo kommt.
Deshalb und auch aus Zeitgründen habe ich mich diesbezüglich etwas zurückgehalten.
Es gibt ja derzeit mehrere Gerüchte:
https://www.notebookcheck.net/fileadmin/Notebooks/News/_nc3/AdoredTV.png
Hier gibt es 3 Punkte, die gegen einen realistischen Leak sprechen könnten:
Zum Release des 1800x hatte Intel nur den 7700k 4C8T im Maintstream als Gegner, während der 2700x sich gegen den 8700k messen musste, der ihm teilweise sogar in Anwendungen gefährlich wurde. Somit konnte man nur noch 330EUR aufrufen, obwohl der 2700x besser war als der 1800x.
Aktuell ist der Stand so: Der Coffee-Lake Refresh ist das Maximum von 14nm++. Dennoch ist der 9900k der King of Games und nun auch Anwendungen. AMD muss hier liefern und ein Angebot abliefern, dass man nicht ablehnen kann. Ich gehe also davon aus, dass die Preise weiterhin aggressiv bleiben, da wo AMD Konkurrenz hat.
Zu2: Die Frage ist 2 Chiplets ohne IO + zusätzlichem IO-Die oder 2 Chiplets mit IO-Funktionen wovon eines aktiviert ist.
Im Video von Jim wurde gesagt: dass Zen2 zwar "all 7nm" ist und es bei Glofo "nur einen Big IO-Chip" gibt. Dennoch wurde nicht die Möglichkeit in Betracht gezogen, dass es einen 7nm IO-Chiplet geben könnte.
TSMC hat bekanntlich noch freie Kapazitäten. Es ist zwar unwahrscheinlich, aber vielleicht nutzt AMD die Kapazitäten um jenen "all 7nm-Ryzen" zu basteln, aber wie oben spekuliert mit 7nm IO-Die.
TSMC produziert bereits 8C-Chiplets für Rome. Warum sollten zwei Chiplets auf nem AM4-Sockel nicht möglich sein? Immerhin sind die Chiplets nur 77mm² groß.
Zur 3: 7nm HP Prozess von TSMC + Binning gegenüber einer unterlegenen 12nm Fertigung bei GF? Keine Einwände!
Ich könnte wahrscheinlich noch Stunden schreiben, aber für mich ist das Wichtigste eigentlich, dass die APU 20CUs haben wird.
Wir erinnern uns: RR kann beim 2200G gegenüber dem 2400G kaum punkten.
https://www.computerbase.de/2018-02/ryzen-3-2200g-5-2400g-test-amd-raven-ridge/2/
37,5 % mehr CUs (11 vs 8), sorgen nur für 6 Prozent Mehrleistung, zumal 2% davon auf den höheren Prozessortakt zurückzuführen ist und zudem takten die 11CUs des 2400G auch noch max. 13% höher.
RavenRidge hat keinen eigenen Speicher und ist daher auf schnellen Arbeitsspeicher angewiesen. Dennoch ist man hier absolut Bandbreitenlimitiert.
Und auf einmal soll Navi12 spekulierte 20CUs haben? Wenn schon 11 gegenüber 8 CUs fast nichts bringen?
Das kann nur passieren, wenn AMD endlich für den Kniff, den Nvidia mit Maxwell gebracht hat, einen ähnlichen Ansatz gefunden hat.
Wenn wir aber davon ausgehen, dass AMD einen ähnlichen Move macht wie Nvidia, dann hätte AMD auch bei 20 CUs grade noch genug Bandbreite zur Verfügung.
Das deckt sich mit den Chiphell Leaks.
Die zeitliche Abfolge passt hier ja auch. AMD hat Navi für die PS5 entwickelt und Eine GPU µArch zu entwickeln braucht 5 Jahre. Maxwell ist 5 Jahre her. Ich dachte vor 1,5 Jahren Vega würde genau diesen Schritt machen.
Es gab ja damals auch Gerüchte, dass Vega64 die 1080ti schlagen würde, aber man hat wohl alle Ressourcen auf Navi konzentriert.
Update 15.12. Ergänzungen und Text verständlicher formuliert.
Vorab: Ich wusste ja schon irgendwie, dass zu dem AdoredTV-Leak noch ein Nachfolgevideo kommt.
Deshalb und auch aus Zeitgründen habe ich mich diesbezüglich etwas zurückgehalten.
Es gibt ja derzeit mehrere Gerüchte:
- AdoredTV Leak bezüglich Ryzen 3****, gestützt durch HardOP
- Reddit Leak, der sich zu krass selbst als Fake outen wollte
- Chiphell-Leak bezgl Navi Chiplets
- Das korrigierte Video von AdoredTV
https://www.notebookcheck.net/fileadmin/Notebooks/News/_nc3/AdoredTV.png
Hier gibt es 3 Punkte, die gegen einen realistischen Leak sprechen könnten:
- Preis
- Cores
- Takt
Zum Release des 1800x hatte Intel nur den 7700k 4C8T im Maintstream als Gegner, während der 2700x sich gegen den 8700k messen musste, der ihm teilweise sogar in Anwendungen gefährlich wurde. Somit konnte man nur noch 330EUR aufrufen, obwohl der 2700x besser war als der 1800x.
Aktuell ist der Stand so: Der Coffee-Lake Refresh ist das Maximum von 14nm++. Dennoch ist der 9900k der King of Games und nun auch Anwendungen. AMD muss hier liefern und ein Angebot abliefern, dass man nicht ablehnen kann. Ich gehe also davon aus, dass die Preise weiterhin aggressiv bleiben, da wo AMD Konkurrenz hat.
Zu2: Die Frage ist 2 Chiplets ohne IO + zusätzlichem IO-Die oder 2 Chiplets mit IO-Funktionen wovon eines aktiviert ist.
Im Video von Jim wurde gesagt: dass Zen2 zwar "all 7nm" ist und es bei Glofo "nur einen Big IO-Chip" gibt. Dennoch wurde nicht die Möglichkeit in Betracht gezogen, dass es einen 7nm IO-Chiplet geben könnte.
TSMC hat bekanntlich noch freie Kapazitäten. Es ist zwar unwahrscheinlich, aber vielleicht nutzt AMD die Kapazitäten um jenen "all 7nm-Ryzen" zu basteln, aber wie oben spekuliert mit 7nm IO-Die.
TSMC produziert bereits 8C-Chiplets für Rome. Warum sollten zwei Chiplets auf nem AM4-Sockel nicht möglich sein? Immerhin sind die Chiplets nur 77mm² groß.
Zur 3: 7nm HP Prozess von TSMC + Binning gegenüber einer unterlegenen 12nm Fertigung bei GF? Keine Einwände!
Ich könnte wahrscheinlich noch Stunden schreiben, aber für mich ist das Wichtigste eigentlich, dass die APU 20CUs haben wird.
Wir erinnern uns: RR kann beim 2200G gegenüber dem 2400G kaum punkten.
https://www.computerbase.de/2018-02/ryzen-3-2200g-5-2400g-test-amd-raven-ridge/2/
37,5 % mehr CUs (11 vs 8), sorgen nur für 6 Prozent Mehrleistung, zumal 2% davon auf den höheren Prozessortakt zurückzuführen ist und zudem takten die 11CUs des 2400G auch noch max. 13% höher.
RavenRidge hat keinen eigenen Speicher und ist daher auf schnellen Arbeitsspeicher angewiesen. Dennoch ist man hier absolut Bandbreitenlimitiert.
Und auf einmal soll Navi12 spekulierte 20CUs haben? Wenn schon 11 gegenüber 8 CUs fast nichts bringen?
Das kann nur passieren, wenn AMD endlich für den Kniff, den Nvidia mit Maxwell gebracht hat, einen ähnlichen Ansatz gefunden hat.
Wenn wir aber davon ausgehen, dass AMD einen ähnlichen Move macht wie Nvidia, dann hätte AMD auch bei 20 CUs grade noch genug Bandbreite zur Verfügung.
Das deckt sich mit den Chiphell Leaks.
- 1. Es handelt sich nicht um RayTracing-Hardware.
- 2. Das Performance-Ziel von Navi 10 ist die GeForce RTX 2080.
- 3. Die 7nm-Fertigung wird sich positiv auf den Grafikkarten-Preis auswirken.
- 4. Beim Stromverbrauch bzw. Energieeffizienz wird es eine Überraschung geben.
- 5. Der Release wird im zweiten/dritten Quartal 2019 stattfinden.
Die zeitliche Abfolge passt hier ja auch. AMD hat Navi für die PS5 entwickelt und Eine GPU µArch zu entwickeln braucht 5 Jahre. Maxwell ist 5 Jahre her. Ich dachte vor 1,5 Jahren Vega würde genau diesen Schritt machen.
Es gab ja damals auch Gerüchte, dass Vega64 die 1080ti schlagen würde, aber man hat wohl alle Ressourcen auf Navi konzentriert.
Update 15.12. Ergänzungen und Text verständlicher formuliert.
Zuletzt bearbeitet:
- Registriert
- Apr. 2011
- Beiträge
- 3.016
OK, ich möchte meine Gedankengänge zu den APUs und Navi selbst noch ein wenig mehr vertiefen.
Die meisten Gerüchte, die sich am Ende als wahr behaupten können, sind diejenigen, denen am wenigsten Glauben geschenkt wurde, weil sie im Vorfeld als unrealistisch eingestuft wurden bzw. irgendwas "anders" gemacht haben, als der Vorgänger.
Beispiele gefällig? AMD bringt Zen direkt mit 8-Kernen; AMD Rome mit 9 Chiplets, statt 4 Dies; Geforce RTX Branding und 2080-Namensschema, statt 1180.
Jetzt sollen also NAVI-Grafikkarten rauskommen, die 3080,3070 und 3060 heissen und nicht RX 680?
Betrachtet man es jedoch genauer, so ergibt es dennoch Sinn und das aus mehreren Gründen:
Zu den max. 20 CUs aus den möglicherweise kommenden APUs der 3000er-Serie habe ich mich ja schon geäussert. Diese sollen angeblich das gleiche Die, d.h. die Navi12-GPU haben wie die 3060 und 3070er-Desktopkarten.
WccfTech sagt jedoch, dass Navi12 40CUs hat. Das wäre natürlich erstaunlich, da man damit Dies verwurstet, die lediglich die Hälfte der vorhandenen CUs aktiviert haben. Wobei es auch RavenRidges gibt, die nur 3 von 11CUs aktiviert haben.
Es geht jedoch primär um die Die-Größe.
Irgendwie muss man ja ein 40CU-Die auf ein AM4-Package bringen, wo auf jeden Fall ein 8-Kern Zen2-Die vorhanden ist, entweder mit IO, oder mit einem separatem IO-Die.
Aber wie groß ist so ein Navi12-Die?
Dazu schauen wir mal auf Vega10 und Vega20. Mit dem Sprung von 14 auf 7nm konnte man das Die von 481mm² auf ca. 331mm² verkleinern. Also quasi 2/3, was mehr ist als die kolportierten 0,5-fache Größe ist.
Wenn wir jetzt mal das Polaris10-Die in 14nm als Beispiel nehmen, welches 232mm² hat und das *0,67 nehmen, so bekommen wir 155mm². Was sich negativ auswirkt, ist dass IO nicht wirklich im gleichen Maße verkleinert werden kann. Was jedoch positiv hinzukommt ist, dass VEGA20 fast eine Mrd Transistoren mehr hat als VEGA10, also kein reiner Shrink ist und außerdem wird ein wenig unnützer Kram, welcher für Spiele nicht relevant ist rausfliegen. Ich gehe daher von maximal 150mm² aus.
Passt das aber noch auf den AM4-Sockel?
Zen² ohne IO hat 77mm²
Das IO-Die bei Rome ca. 435mm², wobei man das ja dann durch 4 teilen könnte, weil man ja faktisch nur Dual-Channel, statt Octachannel braucht und das Rome-IO-Die zumindest laut Folie modular aufgebaut zu sein scheint.
D.h. so ein Die für Desktop-Zen2 hätte ~109mm².
Wie könnte sowas also aussehen?
Ich habe das mal einigermaßen genau versucht darzustellen was die Größenverhältnisse angeht.
Referenz dazu war das Zeppelin-Die von Zen1.
Das ist also schon arg groß. Ob das zu groß für AM4 ist, müssen andere beurteilen.
2 mal Zen2-Dies mit 14nm IO-Die sind aber meiner Ansicht nach auf jeden Fall möglich.
Jetzt wurde beim zweiten Video von Adored TV gesagt: "Ryzen3000 is all based on 7nm"
D.h. ist wäre auch möglich aufgrund der freien Kapazitäten von TSMC, dass man einen 7nm IO-Die für Desktop hat, um Platz auf dem AM4-Package zu sparen. Jetzt weiss man aber, dass IO nicht wie Cores skalieren.
Also habe ich statt 0,5 einen Faktor von lediglich 0,75 angewandt.
Unser 7nm-IO-Die wäre also nur noch ~81mm² groß. Das würde das Ganze etwas mehr zurechtrücken:
Hier hätte ich als Laie jetzt gesagt, dass dies auf dem Package noch darstellbar ist, auch wenn es immer noch etwas eng ist. Man darf ja das Layout von Zen1 nicht zugrunde nehmen inkl. der kleinen Elemente neben dem Die, sondern nur die Größe und da sollte für alle Chips eigentlich genug Platz sein.
Jetzt mag jeder aufschreien: "Hey es gibt aber noch eine Dritte Möglichkeit!"
Ja, die gibt es: Nämlich dass Zen2-Chiplets jeweils IO-Einheiten integriert haben.
D.h. man hätte einen Zen2 Chiplet mit aktiviertem IO und einen, wo nur die Cores aktiv sind.
Ist aber aus meiner Sicht Schwachsinn.
Man hätte:
Kommen wir nun zu den NAVI-Desktopkarten.
Falls es übrigens irgendwann mal eine High-End Navi-Karte geben wird, vergesst bitte schnell, dass diese Karte im Retailmarkt "RX Navi" heisst.
Schon mal "navi" bei google eingegeben? Genau! Allein das ist der Grund. "Navi" klingt bescheuert und ist für Suchmaschinen verwirrend. Die denken man will irgendwo hin navigieren.
Ob das mit dem "Vega II" Trademark zu tun hat? Keine Ahnung! Ich vermute eher, dass man hiermit die Radeon Pro Vega mit Vega20-GPU meint, welche für den Workstation-Markt gedacht ist.
Es gibt hierzu einfach null Quellen, von daher brauch man auch nicht spekulieren.
Wozu es Quellen bzw. Leaks gibt, sind die beiden Chips Navi12 und Navi10 und die entsprechenden Karten RX 3060, 3070 und 3080.
Hier nochmal zur Übersicht:
RX 3060
RX 3070
Schaut man sich die Tests von damals an, so hat Maxwell gegenüber Kepler jeweils ~30% mehr Leistung gebracht. Man darf aber nicht vergessen, dass man dennoch 20% sparsamer war!
Ich hätte jetzt gesagt 45% mehr "IPC" sind ein guter Wert mit dem man weiterarbeiten kann.
Einige werden das jetzt für eine Milchmädchenrechnung halten, aber man muss ja bei Spekulationen von irgendeinem Basiswert ausgehen.
Also nehmen wir den Navi12-Vollausbau mit 40CUs.
Die nächstnähere GPU ist die RX580 mit 36CUs.
Nehmen wir also die aktuelle Cbase-Tabelle als Referenz:
RX580=48,5 fps*1,1CUs (Polaris10 hat 36 Navi12 40)*1,25 Performance (7nm vs 14nm)*1,45 IPC = 96,7 fps
Hoppla! Viel zu schnell. Aber moment! Die RX 3070 hat ja nur 120 Watt im Gegensatz zu ~ 180Watt der RX580, also Faktor 0,67.
96,7*0,67=64,7
Zufall? Genau 1070/Rx 56 Level wie vorhergesagt.
Bevor jetzt einige meckern, dass die +4CUs nicht in die TDP-Rechnung mit eingeflossen sind: Die 580 läuft am Limit und für grade mal +10% Mehrleistung gegenüber der RX480 hat man 23% mehr TDP.
Bei einer theoretischen RX490 mit 40CUs müsste man nicht so nah an die TDP-Kotzgrenze gehen für die gleiche Performance. Also kann man also die +4CUs als Extra dazuzählen ohne die zusätzliche TDP einzurechnen.
Nehmen wir jetzt Navi10 mit der gleichen Rechnung. Als Referenz nehmen wir die RX Vega 56, da beide 56CUs haben.
RX Vega 56 = 69,4fps * 1,25*1,45= 125,78.
TDP Vega 56 = 210W vs 150W 3080.
=> 125,78 * 0,71 = ~90fps
RX Vega64= 75,7*1,15= 87fps.
=Passt!
Man könnte sogar runterrechnen, wieviel CUs bei der RX 3060 aktiviert sind, da es sich wohl nicht um einen Vollausbau handelt. Dazu könnte man entweder die TDP, oder die Performance als Grundlage nehmen.
TDP 75W zu 120. Der Speicher ist aber auch halbiert und dieser frisst bekanntlich auch Strom. Also tun wir mal so als hätte die Karte 8GB und rechnen noch 15Watt drauf. 90W vs 120W:
40*0,75 = 30CUs
Leistung:
Wenn die 3070 auf Vega 56-Niveau ist und die RX3060 auf RX 580 Niveau, welche laut Cbase das 0,7fache
der Leistung einer Vega 56 erreicht.
Dann wären es 40*0,7 = 28CUs
Ich lege mich fest, dass eine dieser zwei Angaben stimmen wird.
Wenn ich jetzt aber Gerüchte lese, dass Navi10 mit 56 CUs gegen eine 2080 konkurrieren will, dann sollte man sich keine utopischen Hoffnungen machen. Das ist schlichtweg unmöglich. Die 2080 ist 30% von Vega64 entfernt.
Aber was ist, wenn Navi10 mit 56CUs nicht der Vollausbau ist, sondern 64CUs?
Es wäre relativ unklug von AMD eine 40CU-GPU und dann nur eine 56CU-GPU zu entwickeln, welche lediglich 16 CUs mehr hat. Und wo ist dann die Salvage-Version von Navi10, obwohl selbst der kleinre Navi12-Chip gleich mehrere hat?
Heisst im Umkehrschluss:
AMD hätte Potential für eine RX 3090!
RX 3090
Könnte man mit einer RX3090 eine 2080Ti schlagen? Nein! Siehe Berechnung!
AMD bräuchte trotz der Verbesserungen und trotz 7nm einen größeren Chip.
Dabei wird Yield und das scheinbar immer noch vorhandene Limit der GCN-Architektur von 64CUs ein Problem sein.
Aber AMD wird früh auf 7nm+ von TSMC setzen, so dass größere Chips als >300mm² möglich sind was Yield und Kosten angeht. Das wird dann die nebulöse "Next-Gen"-Architektur, welche auf den Folien als Navi-Nachfolger ausgegeben wird.
Bzw. Es schwirrt ja auch noch der Name "Navi20" im Raum.
Was denkt ihr?
Könnt gerne meine PS-Vorgabe als Grundlage nehmen(PSD-Datei).
Die ist relativ genau was AM4 angeht (Skalierungsfaktor: mm=cm)
https://mega.nz/#!m0NWEQhD!kkuGHtCjqPoc5ceRd7WpfwjDoa2oTitTpWh_RWswrpw
Update 16.12: Kleinere Korrekturen + RX 3090
Die meisten Gerüchte, die sich am Ende als wahr behaupten können, sind diejenigen, denen am wenigsten Glauben geschenkt wurde, weil sie im Vorfeld als unrealistisch eingestuft wurden bzw. irgendwas "anders" gemacht haben, als der Vorgänger.
Beispiele gefällig? AMD bringt Zen direkt mit 8-Kernen; AMD Rome mit 9 Chiplets, statt 4 Dies; Geforce RTX Branding und 2080-Namensschema, statt 1180.
Jetzt sollen also NAVI-Grafikkarten rauskommen, die 3080,3070 und 3060 heissen und nicht RX 680?
Betrachtet man es jedoch genauer, so ergibt es dennoch Sinn und das aus mehreren Gründen:
- Man vereinheitlicht das Namensschema mit der Ryzen 3000er-Serie und nimmt das neue positive Image aus AMDs CPU-Sparte mit in die bislang schwächelnde Grafiksparte.
- Man nimmt ein seit Pascal etabliertes und hocherfolgreiches Namensschema, welches jeder Kunde direkt wiedererkennt und nimmt es Nvidia, die grade erst ihre 2000er-Serie eingeführt haben, quasi vor der Nase weg
- Ein wenig Rache, dafür dass man das RTX-Branding eingeführt hat, welches ähnlich klingt wie RX
- AMD hat bereits bei den Chipsätzen einen solche Strategie angewandt.
Zu den max. 20 CUs aus den möglicherweise kommenden APUs der 3000er-Serie habe ich mich ja schon geäussert. Diese sollen angeblich das gleiche Die, d.h. die Navi12-GPU haben wie die 3060 und 3070er-Desktopkarten.
WccfTech sagt jedoch, dass Navi12 40CUs hat. Das wäre natürlich erstaunlich, da man damit Dies verwurstet, die lediglich die Hälfte der vorhandenen CUs aktiviert haben. Wobei es auch RavenRidges gibt, die nur 3 von 11CUs aktiviert haben.
Es geht jedoch primär um die Die-Größe.
Irgendwie muss man ja ein 40CU-Die auf ein AM4-Package bringen, wo auf jeden Fall ein 8-Kern Zen2-Die vorhanden ist, entweder mit IO, oder mit einem separatem IO-Die.
Aber wie groß ist so ein Navi12-Die?
Dazu schauen wir mal auf Vega10 und Vega20. Mit dem Sprung von 14 auf 7nm konnte man das Die von 481mm² auf ca. 331mm² verkleinern. Also quasi 2/3, was mehr ist als die kolportierten 0,5-fache Größe ist.
Wenn wir jetzt mal das Polaris10-Die in 14nm als Beispiel nehmen, welches 232mm² hat und das *0,67 nehmen, so bekommen wir 155mm². Was sich negativ auswirkt, ist dass IO nicht wirklich im gleichen Maße verkleinert werden kann. Was jedoch positiv hinzukommt ist, dass VEGA20 fast eine Mrd Transistoren mehr hat als VEGA10, also kein reiner Shrink ist und außerdem wird ein wenig unnützer Kram, welcher für Spiele nicht relevant ist rausfliegen. Ich gehe daher von maximal 150mm² aus.
Passt das aber noch auf den AM4-Sockel?
Zen² ohne IO hat 77mm²
Das IO-Die bei Rome ca. 435mm², wobei man das ja dann durch 4 teilen könnte, weil man ja faktisch nur Dual-Channel, statt Octachannel braucht und das Rome-IO-Die zumindest laut Folie modular aufgebaut zu sein scheint.
D.h. so ein Die für Desktop-Zen2 hätte ~109mm².
Wie könnte sowas also aussehen?
Ich habe das mal einigermaßen genau versucht darzustellen was die Größenverhältnisse angeht.
Referenz dazu war das Zeppelin-Die von Zen1.
Das ist also schon arg groß. Ob das zu groß für AM4 ist, müssen andere beurteilen.
2 mal Zen2-Dies mit 14nm IO-Die sind aber meiner Ansicht nach auf jeden Fall möglich.
Jetzt wurde beim zweiten Video von Adored TV gesagt: "Ryzen3000 is all based on 7nm"
D.h. ist wäre auch möglich aufgrund der freien Kapazitäten von TSMC, dass man einen 7nm IO-Die für Desktop hat, um Platz auf dem AM4-Package zu sparen. Jetzt weiss man aber, dass IO nicht wie Cores skalieren.
Also habe ich statt 0,5 einen Faktor von lediglich 0,75 angewandt.
Unser 7nm-IO-Die wäre also nur noch ~81mm² groß. Das würde das Ganze etwas mehr zurechtrücken:
Hier hätte ich als Laie jetzt gesagt, dass dies auf dem Package noch darstellbar ist, auch wenn es immer noch etwas eng ist. Man darf ja das Layout von Zen1 nicht zugrunde nehmen inkl. der kleinen Elemente neben dem Die, sondern nur die Größe und da sollte für alle Chips eigentlich genug Platz sein.
Jetzt mag jeder aufschreien: "Hey es gibt aber noch eine Dritte Möglichkeit!"
Ja, die gibt es: Nämlich dass Zen2-Chiplets jeweils IO-Einheiten integriert haben.
D.h. man hätte einen Zen2 Chiplet mit aktiviertem IO und einen, wo nur die Cores aktiv sind.
Ist aber aus meiner Sicht Schwachsinn.
Man hätte:
- ein zweites zusätzliches Die zum gezeigten Rome-Chiplet mit entsprechenden Kosten (Zusätzlich wären Rome und Ryzen-Dies nicht untereinander austauschbar.
- Eine IO-Redundanz bei 2 vorhandenen Zen2-Dies. Die angenommene 0,75-Skalierung von IO-Transistoren mal 2 hätte zur Folge dass keine Fläche gegenüber einem 14nm IO-Die eingespart wäre. (Hat das jeder verstanden?)
- Yield. IO-Teil kaputt im monolitischen Die = Zen2-Die kaputt(158mm² Silizium Schrott) . IO-Chiplet kaputt = lediglich neues Chiplet, Zen2 Chiplet kann man behalten.(81mmm² Silizium Schrott).
Kommen wir nun zu den NAVI-Desktopkarten.
Falls es übrigens irgendwann mal eine High-End Navi-Karte geben wird, vergesst bitte schnell, dass diese Karte im Retailmarkt "RX Navi" heisst.
Schon mal "navi" bei google eingegeben? Genau! Allein das ist der Grund. "Navi" klingt bescheuert und ist für Suchmaschinen verwirrend. Die denken man will irgendwo hin navigieren.
Ob das mit dem "Vega II" Trademark zu tun hat? Keine Ahnung! Ich vermute eher, dass man hiermit die Radeon Pro Vega mit Vega20-GPU meint, welche für den Workstation-Markt gedacht ist.
Es gibt hierzu einfach null Quellen, von daher brauch man auch nicht spekulieren.
Wozu es Quellen bzw. Leaks gibt, sind die beiden Chips Navi12 und Navi10 und die entsprechenden Karten RX 3060, 3070 und 3080.
Hier nochmal zur Übersicht:
RX 3060
- Navi12 (40CU-Die, aber wieviel davon aktiviert?)*Salvage
- 129 $
- 4GB GDDR6
- 75W TDP (no 6-Pin)
- Leistung: ~RX 580
RX 3070
- Navi12 (40CU-Die)*Vollausbau
- 199 $
- 8GB GDDR6
- 120W TDP
- Leistung: ~RX Vega 56
- Navi10 (56CUs)*hochspekulativ/Salvage
- 249 $
- 8GB GDDR6
- 150W TDP
- Leistung: ~RX Vega 64+15%
Schaut man sich die Tests von damals an, so hat Maxwell gegenüber Kepler jeweils ~30% mehr Leistung gebracht. Man darf aber nicht vergessen, dass man dennoch 20% sparsamer war!
Ich hätte jetzt gesagt 45% mehr "IPC" sind ein guter Wert mit dem man weiterarbeiten kann.
Einige werden das jetzt für eine Milchmädchenrechnung halten, aber man muss ja bei Spekulationen von irgendeinem Basiswert ausgehen.
Also nehmen wir den Navi12-Vollausbau mit 40CUs.
Die nächstnähere GPU ist die RX580 mit 36CUs.
Nehmen wir also die aktuelle Cbase-Tabelle als Referenz:
RX580=48,5 fps*1,1CUs (Polaris10 hat 36 Navi12 40)*1,25 Performance (7nm vs 14nm)*1,45 IPC = 96,7 fps
Hoppla! Viel zu schnell. Aber moment! Die RX 3070 hat ja nur 120 Watt im Gegensatz zu ~ 180Watt der RX580, also Faktor 0,67.
96,7*0,67=64,7
Zufall? Genau 1070/Rx 56 Level wie vorhergesagt.
Bevor jetzt einige meckern, dass die +4CUs nicht in die TDP-Rechnung mit eingeflossen sind: Die 580 läuft am Limit und für grade mal +10% Mehrleistung gegenüber der RX480 hat man 23% mehr TDP.
Bei einer theoretischen RX490 mit 40CUs müsste man nicht so nah an die TDP-Kotzgrenze gehen für die gleiche Performance. Also kann man also die +4CUs als Extra dazuzählen ohne die zusätzliche TDP einzurechnen.
Nehmen wir jetzt Navi10 mit der gleichen Rechnung. Als Referenz nehmen wir die RX Vega 56, da beide 56CUs haben.
RX Vega 56 = 69,4fps * 1,25*1,45= 125,78.
TDP Vega 56 = 210W vs 150W 3080.
=> 125,78 * 0,71 = ~90fps
RX Vega64= 75,7*1,15= 87fps.
=Passt!
Man könnte sogar runterrechnen, wieviel CUs bei der RX 3060 aktiviert sind, da es sich wohl nicht um einen Vollausbau handelt. Dazu könnte man entweder die TDP, oder die Performance als Grundlage nehmen.
TDP 75W zu 120. Der Speicher ist aber auch halbiert und dieser frisst bekanntlich auch Strom. Also tun wir mal so als hätte die Karte 8GB und rechnen noch 15Watt drauf. 90W vs 120W:
40*0,75 = 30CUs
Leistung:
Wenn die 3070 auf Vega 56-Niveau ist und die RX3060 auf RX 580 Niveau, welche laut Cbase das 0,7fache
der Leistung einer Vega 56 erreicht.
Dann wären es 40*0,7 = 28CUs
Ich lege mich fest, dass eine dieser zwei Angaben stimmen wird.
Wenn ich jetzt aber Gerüchte lese, dass Navi10 mit 56 CUs gegen eine 2080 konkurrieren will, dann sollte man sich keine utopischen Hoffnungen machen. Das ist schlichtweg unmöglich. Die 2080 ist 30% von Vega64 entfernt.
Aber was ist, wenn Navi10 mit 56CUs nicht der Vollausbau ist, sondern 64CUs?
Es wäre relativ unklug von AMD eine 40CU-GPU und dann nur eine 56CU-GPU zu entwickeln, welche lediglich 16 CUs mehr hat. Und wo ist dann die Salvage-Version von Navi10, obwohl selbst der kleinre Navi12-Chip gleich mehrere hat?
Heisst im Umkehrschluss:
AMD hätte Potential für eine RX 3090!
RX 3090
- Navi10 (64 CUs)*Vollausbau
- 299-329$
- 8GB GDDR6
- 175W TDP
- Leistung: Vega 64+30% / ~RTX 2080
Könnte man mit einer RX3090 eine 2080Ti schlagen? Nein! Siehe Berechnung!
AMD bräuchte trotz der Verbesserungen und trotz 7nm einen größeren Chip.
Dabei wird Yield und das scheinbar immer noch vorhandene Limit der GCN-Architektur von 64CUs ein Problem sein.
Aber AMD wird früh auf 7nm+ von TSMC setzen, so dass größere Chips als >300mm² möglich sind was Yield und Kosten angeht. Das wird dann die nebulöse "Next-Gen"-Architektur, welche auf den Folien als Navi-Nachfolger ausgegeben wird.
Bzw. Es schwirrt ja auch noch der Name "Navi20" im Raum.
Was denkt ihr?
Könnt gerne meine PS-Vorgabe als Grundlage nehmen(PSD-Datei).
Die ist relativ genau was AM4 angeht (Skalierungsfaktor: mm=cm)
https://mega.nz/#!m0NWEQhD!kkuGHtCjqPoc5ceRd7WpfwjDoa2oTitTpWh_RWswrpw
Update 16.12: Kleinere Korrekturen + RX 3090
Zuletzt bearbeitet:
Hast du gut zusammengefasst. Dadurch kann man die aktuellen Gerüchte später auch nochmal vergleichen. Aber weiter darüber zu diskutieren, wird wohl nichts bringen, da jetzt erstmal bis zur CES gewartet werden sollte. Ist ja nicht mehr viel Zeit, und ich habe das Gefühl, dass zu den Gerüchten jetzt alles gesagt wurde.
Vielleicht ein Kommentar zu deiner Grafikkartenrechnung: Die Leistung würde so genau in die entsprechenden Klassen passen, aber die große Frage ist ja, hat AMD es wirklich geschafft, GCN so zu verschlanken? Ist das überhaupt möglich? Wenn es sich bewahrheitet, hätte AMD endlich eine vergleichbar effiziente Architektur wie nVidia, aber ich wage es noch nicht, so zu hoffen.
Vielleicht ein Kommentar zu deiner Grafikkartenrechnung: Die Leistung würde so genau in die entsprechenden Klassen passen, aber die große Frage ist ja, hat AMD es wirklich geschafft, GCN so zu verschlanken? Ist das überhaupt möglich? Wenn es sich bewahrheitet, hätte AMD endlich eine vergleichbar effiziente Architektur wie nVidia, aber ich wage es noch nicht, so zu hoffen.
- Registriert
- Apr. 2011
- Beiträge
- 3.016
Colindo schrieb:Hast du gut zusammengefasst. Dadurch kann man die aktuellen Gerüchte später auch nochmal vergleichen. Aber weiter darüber zu diskutieren, wird wohl nichts bringen, da jetzt erstmal bis zur CES gewartet werden sollte.
Danke Dir! Du hast Recht. Ich hatte mich bzgl des Leaks hier im Thread zurückgehalten, um alles am Ende nochmal zusammenzufassen und zu versuchen weitesgehend zu analysieren.
Colindo schrieb:Vielleicht ein Kommentar zu deiner Grafikkartenrechnung: Die Leistung würde so genau in die entsprechenden Klassen passen, aber die große Frage ist ja, hat AMD es wirklich geschafft, GCN so zu verschlanken?
Was heisst verschlanken? Maxwell war ja nicht nur energieeffizienter und damit leistungsstärker, sondern konnte zusätzlich deutlich kleinere Dies mit weniger Transistoren bauen.
Ich glaube eher nicht, dass die Dies viel kleiner werden. Ich glaube eher man macht innerhalb der GCN-Achitektur eine Art "Datenkompression" um die CUs effiezienter zu machen und effektiv mehr Durchsatz zu erreichen. VEGA hatte da schon erste Ansätze gemacht, die aber allesamt nicht wirklich funktionierten.
Aber mal die CES abwarten
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.847
Also so eine vega64+15% um 250 und sie gehört mir.
Aber, ob das kommt, wann und vor allem die Verfügbarkeit sind eben so Sachen, die ich seit V64 sehr schätze :-p
Bei den CPUs bin ich zuversichtlicher. Aber nicht dieses Kern-Monstrum mit 5+Ghz und so günstig. Das glaube ich nicht^^
Aber, ob das kommt, wann und vor allem die Verfügbarkeit sind eben so Sachen, die ich seit V64 sehr schätze :-p
Bei den CPUs bin ich zuversichtlicher. Aber nicht dieses Kern-Monstrum mit 5+Ghz und so günstig. Das glaube ich nicht^^
dalaidrama
Lt. Junior Grade
- Registriert
- Aug. 2009
- Beiträge
- 415
Wieso limitiert GCN denn bei 64?Rock Lee schrieb:Dabei wird Yield und das scheinbar immer noch vorhandene Limit der GCN-Architektur von 64CUs ein Problem sein.
Kann man nicht auf nem größeren und teureren Chip zumimdest theoretisch einfach z.B. 72 oder 80 CUs verbauen, vor allem, wenn es jetzt effizienter wird im Chip?
Ich dachte immer das jetzige Maximum bei Vega hätte in erster Linie thermische Gründe (oder vielleicht noch Yield/Preis/Marktsituation).
Aber ist da wirklich eine "harte" technische Grenze? Wo? Warum?
Aber 64 CU und die weiteren von dir und einigen anderen vermuteten/prognostizieten Verbesserungen bzgl. Effizienz usw. wären schon fein, allein schon für die Marktsituation! Würde AMD wirklich herzlich eine Konkurrenzkarte zur 2080 wünschen...
Für mich persönlich wird es wahrscheinlich trotzdem noch eine Navi/Vega Generation länger dauern (so lange keine unerwarteten positiven finanziellen Ereignisse auftreten)
Zuletzt bearbeitet:
Biocid
Lieutenant
- Registriert
- Juni 2013
- Beiträge
- 798
Um das alles mal ganz kurz für den wohl interessierten Käufer zusammenzufassen:
Bekomme ich irgendwann mal ein besseres P/L Verhältnis was Leistung und Langlebigkeit einer CPU/GPU betrifft?
Oder ist das alles ebenfalls nur kapitalistisches Marketinggeschwätz das der AMD Kurs steigt.
Alle anderen philosophischen Nerd Zahlen und Theorien interessieren mich aus Kundensicht, sorry, einen Scheiß.
Bekomme ich irgendwann mal ein besseres P/L Verhältnis was Leistung und Langlebigkeit einer CPU/GPU betrifft?
Oder ist das alles ebenfalls nur kapitalistisches Marketinggeschwätz das der AMD Kurs steigt.
Alle anderen philosophischen Nerd Zahlen und Theorien interessieren mich aus Kundensicht, sorry, einen Scheiß.
Rock Lee schrieb:Jetzt mag jeder aufschreien: "Hey es gibt aber noch eine Dritte Möglichkeit!"
Ja, die gibt es: Nämlich dass Zen2-Chiplets jeweils IO-Einheiten integriert haben.
D.h. man hätte einen Zen2 Chiplet mit aktiviertem IO und einen, wo nur die Cores aktiv sind.
Ist aber aus meiner Sicht Schwachsinn.
Man hätte:
- ein zweites zusätzliches Die zum gezeigten Rome-Chiplet mit entsprechenden Kosten (Zusätzlich wären Rome und Ryzen-Dies nicht untereinander austauschbar.
- Eine IO-Redundanz bei 2 vorhandenen Zen2-Dies. Die angenommene 0,75-Skalierung von IO-Transistoren mal 2 hätte zur Folge dass keine Fläche gegenüber einem 14nm IO-Die eingespart wäre. (Hat das jeder verstanden?)
- Yield. IO-Teil kaputt im monolitischen Die = Zen2-Die kaputt(158mm² Silizium Schrott) . IO-Chiplet kaputt = lediglich neues Chiplet, Zen2 Chiplet kann man behalten.(81mmm² Silizium Schrott).
Es gibt noch eine weitere Kombinationsmöglichkeit. Anstatt eine IO-Einheitzu zu bauen, baut AMD einen 8-Kernprozessor mit einer aufgebohrten IO-Einheit, an die man einen Rome-Chipplet aus dem Serversegment anbinden kann.
Das hätte zur Folge:
Bis zum 8-Kern-Prozessor hätte man ein monolithisches Design und bräuchte keine Interposer.
Möchte man einen 12 oder 16-Kerner anbieten, packt man den 8-Kern-Prozessor mit IO-Einheit auf den Interposer und packt dazu ein 8-Kern-Chiplet ohne I/O-Einheit aus dem Serversegement (Rome).
Durch diese Kombination müsste man keine IO-Einheiten Redundat führen (Punkt 2), die man dann wieder deaktivieren muss. Wäre der IO-Teil Kaput, müsste man eben nur einen 8-Kern-Prozessor wegschmeisen und keinen 16-Kerner (Punkt 3), also das gleiche wie bei Ryzen 1. Günstige Prozessoren wie etwa Ryzen 3 und Co würden nicht unnötig teuer in der Produktion, da dort kein Interposer notwendig wäre... Man hätte zwar zum Rome-Chiplet einen weiteren Chip für den man eine Maske erstellen muss, aber einen weiteren Chip hätte man bei einem reinen IO-Chip für den Desktop ebenso (Punkt 1). D.h. um eine weitere Maske kommt man nicht umher.
stolperstein
Lt. Commander
- Registriert
- Aug. 2010
- Beiträge
- 1.442
Volker schrieb:Zur CES kommt nichts, denn es ist einfach nichts fertig. Schon da liegen die Gerüchte meilenweit daneben. Eine Keynote in Vegas ist immer ein Long-Game-Ausblick auf die ganze Firma, keine einzelne Produktvorstellung. Die Hälfte dort wird sich decken mit dem Event von vor drei Wochen.
Also bitte bitte hört auf zu träumen. Sonst bastel ich nachher eine Ryzen-4000-Tabelle mit ganz vielen Zahlen!!
Sicher...?
- https://wccftech.com/amd-launching-ryzen-3000-series-cpus-apus-radeon-gpu-ces/
da geht also das Weihnachtsgeld hin...
Frohe Weihnachten,
stolpi
- Registriert
- Apr. 2011
- Beiträge
- 3.016
stolperstein schrieb:
Gestern Abend auch schon gelesen. Vega20 in 7nm für Consumer? Das wäre aus meiner Sicht höchstinteressant, wenn AMD diesen Schritt gehen würde, aus vielerlei Gründen. Gehen wir einfach mal davon aus das Gerücht stimmt.
Zuerst einmal wurde diese Karte von AMD in der Vergangenheit selbst verneint, weil 7nm noch ein frischer und vor allem teurer Prozess ist. Zumal keine Verbesserungen in der Architektur vermutet wurden, die sich posistiv auf die Gaming-Performance auswirken. AMD hat in Vega 20 ~1Mrd. Transistoren zusätzlich für die bessere DoublePrecision verbaut. Dieser Chip ist ganz klar für Unternehmen und nicht für Spieler gedacht.
Dazu noch der teure HBM-Speicher.
Ich vermute man würde einen Preis von 799-899 EUR aufrufen, wenn man das ganze als RX Vega II vermarktet. Als "Frontier Edition" wahrscheinlich sogar noch mehr. Aber gehen wir mal von Vega II aus.
Bei so einem Preis muss das Ding ja ordentlich Leistung haben?
Ähm...naja.
Zuersteinmal die Frage ob 56 oder 64 CUs. Auch wenn Vega 64 gegenüber Vega 56 eigentlich aufgrund der Beschränkungen der Architektur fast nur über den Takt kommt, wird man versuchen alles rauszuholen.
D.h. volle 64CUs. und eine TDP die sicherlich NICHT niedriger als die RX Vega 64 sein wird.
Dadurch "könnte" man, solange es nicht weitere Beschränkungen innerhalb der Architektur gibt auf >25-30% mehr Performance kommen. Das heisst man läge auf dem Level der 1080ti und würde sich einer RTX 2080 mit 8-10% geschlagen geben.
Dazu noch der hohe Verbrauch, was entsprechende Kühllösungen erfordern wird.
AMD wird diese Karte auch nur bringen, weil Nvidia ein entsprechendes Preisniveau etabliert hat.
Andernfalls hätte man sich gesagt. "ach egal, wir warten ab bis Navi"
Ich erwarte von dieser Karte nicht mehr als ein Lückenfüller zu sein bis Navi erscheint.
Vorausgesetzt die Gerüchte von AdoredTV sind wahr, dann wird AMDs Portfolio im (Spät-)Sommer so aussehen:
- RX 3060
- RX 3070
- RX 3080
- Vega II
Ich habe oben ja auch angegeben, dass ich noch eine RX 3090 erwarte, die dann später kommt.
Grade mit Vega II ergibt dies noch mehr Sinn. Vermutlich wird man die 3090 genau ein Jahr später als Vega II zur CES 2020 rausbringen, so dass AMDs Lineup ein halbes Jahr später zum Jahreswechsel so aussehen wird.
- RX 3060
- RX 3070
- RX 3080
- RX 3090
Die günstigere 3090 wird die teure Vega II substituieren und die gleiche Leistung bringen bei weniger Verbrauch.
Fazit: Vega II wird für mich eine Karte mit geringem Haltbarkeitsdatum und vom Preis her wird man sich ärgern, nicht noch ein bisschen gewartet zu haben.
PS: @Qualla : Danke!
B
Bard
Gast
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
B
Boedefeld1990
Gast
Hallo,
da ich mir einen neuen Gaming PC zusammenstellen möchte, wollte ich Euch fragen, zu wann man circa mit dem Release der neuen Ryzen CPU's rechnen kann?
Weiß da jemand schon etwas drüber?
Gruß
da ich mir einen neuen Gaming PC zusammenstellen möchte, wollte ich Euch fragen, zu wann man circa mit dem Release der neuen Ryzen CPU's rechnen kann?
Weiß da jemand schon etwas drüber?
Gruß
Im Augenblick warten alle auf die CES. Dort wird dann wohl einiges bekannt gegeben werden.
Was genau, weiß keiner. Es gibt viele Vermutungen und noch wildere Gerüchte.
Gerüchte etc:
Siehe Video oben. Laut Gerüchten ab Start CES.
Oder auch hier auf CB:
https://www.computerbase.de/2018-12/ryzen-3000-radeon-rx-3000-geruechte/
Wenn dann die CES begonnen hat, wissen wir mehr.
Bis dahin solltest Du dich noch gedulden.
Wahrscheinlich ist Q1/Q2 2019.
Was genau, weiß keiner. Es gibt viele Vermutungen und noch wildere Gerüchte.
Gerüchte etc:
Siehe Video oben. Laut Gerüchten ab Start CES.
Oder auch hier auf CB:
https://www.computerbase.de/2018-12/ryzen-3000-radeon-rx-3000-geruechte/
Wenn dann die CES begonnen hat, wissen wir mehr.
Bis dahin solltest Du dich noch gedulden.
Wahrscheinlich ist Q1/Q2 2019.
- Registriert
- Apr. 2011
- Beiträge
- 3.016
Bard schrieb:YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Im Grunde wird ja eigentlich nicht viel neues gesagt, außer eben, dass viele Launch und Ankündigung verwechseln.
Die Aufsplittung des ES-Codes hatte ich schon auf Reddit gelesen.
Zur Vega II hab ich schon so viel gelesen... @Wolfgang schreibt von 15% , Redgaming Tech auf einmal zwischen 2080 und 2080ti.
15% wäre für meinen Geschmack zu pessimistisch, während >2080-Level nicht ohne Verbesserungen innerhalb der Vega-Architektur möglich sind.
Ich gehe daher von 1080ti Level aus. D.h. man wird die 2080 nicht ganz schlagen können.
Das dürfte beim aktuellen Stand am realistischsten sein.
Ich lasse mich aber natürlich gerne überraschen.
B
Boedefeld1990
Gast
Okay, aber falls die neuen Prozessoren tatsächlich erst im zweiten Quartal kommen, werde ich vorher schon den PC zusammenstellen. So lange möchte ich nicht warten.
Meint ihr, ein Gamer der Aufbauspiele, Simulatoren und ab und zu Egoshooter spielt benötigt eine CPU mit 16 Kernen?
Reicht da nicht für die nächsten drei - vier Jahre ein 2600er oder 2700er aus?
Meint ihr, ein Gamer der Aufbauspiele, Simulatoren und ab und zu Egoshooter spielt benötigt eine CPU mit 16 Kernen?
Reicht da nicht für die nächsten drei - vier Jahre ein 2600er oder 2700er aus?
Ähnliche Themen
- Antworten
- 95
- Aufrufe
- 13.267