News Ryzen 3000 & Radeon RX 3000: Fantastische Gerüchte zu AMDs CPU- und GPU-Zukunft

Chismon schrieb:
Ich waere auch dafuer, dass von jedem Publisher nicht mehr als ein einziges Spiel in den CB Parcours aufgenommen wird, also nicht 2-3 Ubisoft Titel, 2 EA Titel, 2 Square Enix Titel, 2 Activision-Blizzard Titel, 2 Bethesda Titel, usw. ... das sollte eigentlich ohne Probleme moeglich sein, zumal nicht immer die grafisch anspruchsvollsten Spieletitel auch gleichzeitig die beliebtesten sind.

Meiner Meinung nach sollte das Hauptkriterium die Engine/API sein. Als Spieler interessiert mich doch, wie meine (eventuell noch zu kaufende) Hardware über ein breites Spektrum von Engines/APIs abschneidet.

Der Parcours sollte daher die großen Engines/APIs abdecken: DirectX, OpenGL, Vulkan, Unreal 4, Unity, Frostbite, Creation, CryEngine, Dunia, AnvilNext, RAGE, id Tech. Die jeweils aktuellen und populären Titel basierend auf diesen Engines kann man ja nach Bedarf und Erscheinen austauschen.

Beispiele:

- Wolfenstein II / Doom (Vulkan + id Tech)
- Hellblade (Unreal 4)
- Overload (Descent Remake auf Unity Engine)
- Battlefield V (Frostbite)
- Irgendein beliebiger neuerer Bethesda-Titel (Creation)
- Prey oder Hunt: Showdown (CryEngine)
- Far Cry 5 (Dunia)
- AssCreed Odyssey (AnvilNext)
- GTA V (RAGE)
 
  • Gefällt mir
Reaktionen: Smartbomb, TheBear1517, dohderbert und eine weitere Person
Gortha schrieb:
Lol... dein alter 6Kerner mit dem langsamen DDR3 wird sogar von einem 2600(x) mit moderatem 3200er-Ram geschlagen. Aber wenn dir der kommende 3600X/3700X/3800X mit popeligem (jedoch schneller als dein Ram-Setup) Dualchannel 3200Mhz+++ nicht reichen sollte, nimm doch den neuen 7nm-Threadripper 3XXX mit Quadchannel und einem X399 Chipsatz(-Nachfolger) und du hast über dann noch mehr als die 64-Lanes die Threadripper jetzt schon hat.

Nicht ganz up-to-date? ;)

Das Sytem habe ich damals aufgebaut mit dem Plan das es bis 2020 hält. Tut es auch, es gibt kein Spiel bei dem ich große Abstriche machen muß, Jegliche Software läuft performant und es ist immer noch schneller als 80% aller PCs die auf Steam oder Futuremark gebencht wurden. Die Quadchannelanbindung des RAM merke ich in einigen Spielen, und ja ich hab nen kleinen LAN PC auf dem Dual Channel läuft zum Vergleich. Und nein DDR3 im Quadchannel ist nicht viel langsamer als DDR4 im Dualchannel. Zumindest nicht bei DDR4 3200 16-18-18-38.
Da brauchste schon Welche mit geringerer Latenz...also so ab CL14 und kleiner.

Nachtrag: Kosten / Nutzen Faktor ist übrigens ein wichtiger Punkt für mich ;)
 
Zuletzt bearbeitet:
psYcho-edgE schrieb:
Wenn's dafür die Hälfte kostet ist das dem Endkunden Wumpe ob's 12, 7 oder -34nm sind.
Dazu muss es erst einmal die Hälfte kosten. Und was ist, wenn es doppelt so viel schluckt, weil auch die Konkurrenz etwas Neues hat? Immer noch Wumpe?
 
frost21 schrieb:
Ihre eigene Fertigungslinie wird mit Sicherheit für sie etwas günstiger sein als wenn man es in einer externen Foundry produzieren müsste.

Bringt ihnen aber nichts wenn sie ihre eigenen Foundrys nicht auslasten können oder zu mehr Kapazität benötigen, als die eigenen Foundrys besitzen.

Intel hat zudem das Problem, dass sie aktuell nur Monolithische CPUs produzieren können. Diese Großen DIEs besitzen eine extrem niedrige Yield-Rate. Dadurch wird die Produktion einer einzelnen High-Core CPU extrem teuer. (https://de.wikipedia.org/wiki/Ausbeute_(Halbleitertechnik)). Deswegen müssen sie die CPUs auch so teuer verkaufen um überhaupt Gewinn zu machen.

Sollte AMD wirklich die Chiplet-Architektur in ihrer gesamten Produktpalette verwenden hätten sie massive Vorteile:
Diese kleinen Chiplets sind extrem viel günstiger zu produzieren als diese großen. Sie hätten quasi keinen Ausschuss, da die Möglichkeit besteht alle qualitätsstufen der DIEs beliebig zu verwenden.

Sie können unterschiedliche DIEs an den I/O-Chiplet koppeln - wie AdoredTV spekuliert hat eben einen z.B. auch X-Core CPU und einen Y-CU-Navi-GPU-Die
Dadurch sparen sie nicht nur Silizium sondern auch ganze Produktionslinien.
Intel nutzt für viele Produkte unterschiedliche Chips.

Der i3-8300 nutzt beispielsweise einen ~126mm² DIE, ein i5-8600 und der i7 hat ~149mm² und der i9 Octacore nutzt einen 174mm² DIE. Die Highcorecount Serverchip sind auch aufgeteilt und besitzen mehrere Dies mit >300mm² Fläche.

Das sind viele Designs die unterschiedliches Q&A benötigen. Die Produktionslinien laufen alle parallel zueinander und verschlingen Unmengen an Geld.

AMD würde es mit dem spekulierten Design schaffen, alle Performancelevel mit nur 3 verschiedenen DIE-Designs abzugrasen (I/O (vielleicht sogar "teilbar"), 8 Core CPU und Navi-GPU). Dabei hätte man noch den Vorteil "Cherrypicking" zu betreiben - also die hochtaktenden CPUs für hochpreisige Produkte zu nutzen.

Danke sehr verständlich erklärt. :) Dazu super Link von Wikipedia.
 
bigfudge13 schrieb:
Puh. Also wenn diese Gerüchte um Ryzen wirklich stimmen, die Anzahl der Kerne, Takt, gestiegene IPC, dann weiß ich nicht, wie man noch den Kauf einer Intel CPU rechtfertigen kann.

Weil Intel rauf steht und pro MHz bietet Intel mehr Leistung. Ich werde immer Intel kaufen - mit AMD verbinde ich mangelnde Stabilität seit dem K6-2 Desaster
 
skawuscha schrieb:
Wie immer wird hier von vielen vergessen das die Preise in $ ohne Mehrwertsteuersteuer sind. Plus die gewohnte 1$=1€ Umrechnung. Jedes mal das selbe.
Nicht nur die Mehrwertsteuer, in einbepreist ist hierzulande noch die 2 Jahre Gewährleistung und der Beitrag zur Entsorgung von Elektronik-Altgeräten (Richtlinie 2012/19/EU, WEEE).

Damit macht man aber keinen großen Fehler. Zum wirken die beiden Faktoren (Steuern und Wechselkurs) in entgegengesetzte Richtungen. Zum anderen ist schon seit Jahren bei vielen Artikeln tatsächlich nahezu 1:1-Umrechnung beobachtbar gewesen, solange nicht besondere Liefersituationen/Abverkäufe vorlagen.

Ein Ryzen 2700X kostet bei Newegg 329,99 USD inkl. Versand.
Bei Mindfactory kostet 316,90 EUR + 8,99 EUR Versand.


peru3232 schrieb:
der Aktienkurs hat wiedermal massiv nachgegeben in den letzten 24 Stunden, bei AMD normalerweise ein Zeichen, dass etwas tolles folgen wird
Revan1710 schrieb:
Die Technologie-Aktien der USA sind seit 2 Tagen generell im Tiefflug. Ich halte es für sehr unwahrscheinlich, dass die AMD Aktie so massiv auf diese Gerüchte reagiert hat
Wie @Revan1710 andeutet, kann man Aktienkurse nie für sich alleine beurteilen. Man muss sie immer in Relation zum Wettbewerb sehen um sinnvolle Aussagen darüber machen zu können.

Hier ist der Kurs von AMD verglichen mit dem NASDAQ 100 Technology Sector Index:
amd-ndxt.png


Man sieht sehr schön, wie die Berichte zum Ryzen 3000 einen vorübergehende Kurssprung ausgelöst haben, aber man dann relativ bald wieder auf den Boden der Tatsachen zurückgekehrt ist. Dennoch steht AMD verglichen mit dem Index besser da als vorher, d.h. es wird tatsächlich erwartet, dass an den Gerüchten etwas dran ist.
 
Shoryuken94 schrieb:
Trotzdem sind 1080 und Vega 64 in etwa gleich auf. Also müsste Navi mit ~9Tflops in etwa die Leistung von Vega mit ~14 Tflops erreichen, so wie die 1080 auch. Ergo müsst Navi in etwa das gleiche Verhältnis von Rohleistung zu Gamingperformance wie Nvidia besitzen.

Ja, falls Navi ein Vega Shrinke ist. Und davon ist nicht auszugehen. Er hat vermutlich mehr mit Polaris gemeinsam als mit Vega, da er GDDR6 verwenden wird. Allein schnellerer Speicher würde Polaris einiges an Mehrperformance bringen.
Desweiteren ist Vega, wenn es um Compute geht, deutlich schneller, er kann also die Rohleistung auch auf den Tisch bringen, wenn die Anwendung passt. Nur in Games passt es mit der Auslastung nicht mehr. Polaris ist aktuell ziemlich im Sweetpoint, sprich die Auslastung von Navi ist höher, als jene von Vega64, welche du als Beispiel nimmst. Genauer genommen hat Vega64 die schlechteste Auslastung, es sei denn, du bencht unter 4k. Es wurde dir bereits gesagt, dass Vega56 taktnomiert (GPU und HBM) mit Vega64 ca gleich schnell ist. Somit wäre ein Vergleich 1080 und Vega56 bereits sinnvoller.

Will man aber einen sinnvollen Vergleich, dann nimm Polaris30, welcher Navi ersetzen soll, übertaktet den Speicher, GPU takt und bedenke die paar CUs mehr.
Ich gehe davon eher aus, dass Navi12, mit 40 CUs, eher das zweit Modell ist, welches nahe Vega 56 agieren soll.
Und Polaris selbst ist ca die 232 mm^2 groß. Navi 12 sollte ca minimal mehr als die Hälfte ausmachen, also 120 mm^2. Das geht in Größenordnung, die eher Polaris12 (101 mm^2) und nicht Polaris 10 ersetzt.
Ich nehme eher an, es wird wieder zwei Chips von AMD geben.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Andersrum, mach daraus 10-20%, dann macht die Aussage Sinn


du weisst schon, wer kyle bennet ist, oder? :freak: und der sagt sicherlich nix, wo der sich selber mit in die nesseln setzen würde :daumen:
 
BosnaMaster schrieb:
Danke sehr verständlich erklärt. :) Dazu super Link von Wikipedia.
Dazu kommt noch, dass AMD auch 4 und 6 Kerne von den chiplets nutzen könnte. Die sind eh nur ~72mm² groß und dazu dann noch Restevereertung und man wirft quasi nichts weg. Das kam bei der Erklärung von @frost21 nicht ganz rüber. Sonst stimmt das aber.

Die Kosten könnte man natürlich auch noch nachrechnen, Intel zahlt ähnlich viel, wie die foundry für alles. R&D, Maschinen, Wafer usw. Dann muss man nur deren Marge noch genau berechnen für die Wafer und gut ist.

Die Zahlen wirst du aber nirgends genau finden. Die Wafer von TSMC werden aber einiges mehr kosten, als die letzten bei Globalfoundries. Die CPUs mit gleicher Chipfläche (bei MCM insgesamt mehr da Teile aus 14nm Fertigung kommen) ist der Verkaufspreis von AMD sicher höher.
 
  • Gefällt mir
Reaktionen: frost21
Hallo Jan-Frederik Timm,

JA, bitte veröffentlicht solche Meldungen. Ihr habt deutlich drauf hingewiesen das alle Informationen nur Gerüchte sind. Danke für Deine gute Arbeit über die letzen Jahre hinweg. Ich lese CB jeden Tag.
 
Ich bin gespannt was auf einem X470 Board alles laufen wird. Ich wollte meinen Ryzen PC Upgraden.
 
Stanzlinger schrieb:
Weil Intel rauf steht und pro MHz bietet Intel mehr Leistung. Ich werde immer Intel kaufen - mit AMD verbinde ich mangelnde Stabilität seit dem K6-2 Desaster
Und mit Intel assoziierst du dann hoffentlich noch den Pentium-FDIV-Bug?
https://de.m.wikipedia.org/wiki/Pentium-FDIV-Bug

Vielleicht sollte man sich nicht von 20 Jahren Vorurteilen leiten lassen, insbesondere wenn nicht die AMD CPU das Problem darstellte, sondern die Chipsätze von VIA bzw ALi. :freak:
 
  • Gefällt mir
Reaktionen: eXe777, Rockstar85 und cookie_dent
Jo danke Jungs, kann Intel auch was an "Abfall" für die 6/4 ect Kerner verwenden? Mobile Sparte(Notebooks)?

Gut bei 14++++(oder wieviele + auch immer), werden Sie wahrscheinlich eine sehr gute Ausbeute haben.
 
Volkimann schrieb:
Und mit Intel assoziierst du dann hoffentlich noch den Pentium-FDIV-Bug?
https://de.m.wikipedia.org/wiki/Pentium-FDIV-Bug

Vielleicht sollte man sich nicht von 20 Jahren Vorurteilen leiten lassen, insbesondere wenn nicht die AMD CPU das Problem darstellte, sondern die Chipsätze von VIA bzw ALi. :freak:

Der Intel Bug betraf im Normalfall aber nicht den normalen Endanwender - ein instabiles System jedoch schon
 
Moriendor schrieb:
... Hauptkriterium die Engine/API sein. Als Spieler interessiert mich doch, wie meine (eventuell noch zu kaufende) Hardware über ein breites Spektrum von Engines/APIs abschneidet.
Der Parcours sollte daher die großen Engines/APIs abdecken: DirectX, OpenGL, Vulkan, Unreal 4, Unity, Frostbite, Creation, CryEngine, Dunia, AnvilNext, RAGE, id Tech.

Okay, kann man auch gerne machen, aber die Engines alleine entscheiden ja nicht wirklich massgeblich ueber die Umsetzung, sondern entscheidend ist wie geschickt und aufwaendig sie als Werkzeuge von den Entwicklern eingesetzt werden.

Die Frostbite Engine galt ja seit Star Wars Battlefront 1 und bis zu Battlefield V als das grafische Nonplusultra und die enttaeuschende DX12 Implementierung in letzterem von EA/Dice (ob das nun im Ruckzuck-Verfahren wegen Order de Mufti von nVidia, durch eine schwieriger/komplexere Umsetzung der angewendeten/implementierten RTX-Effekte als bei der Square Enix/Crystal Dynamics/Nixxe SOTTR RTX-Spielekonkurrenz oder eben wegen weniger Know How bei Dice in dem Bereich passiert ist, wird natuerlich nicht bekannt werden) hat auch Spuren hinterlassen.

Es gab meines Wissens auch schon Spiele vom gleichen Entwickler, die erst vergleichsweise etwas besser auf AMD GPUs gelaufen sind und in der nachfolgenden, von nVidia gesponsorten Iteration trotz im Prinzip gleicher Engine auf einmal besser mit den Grafikkarten des Marktfuehrers gelaufen sind.

So gesehen sind die Engines an sich sicherlich ein interessanter Faktor/Anhaltspunkt, aber wohl leider doch nicht unbedingt ausschlaggebend, die Lumberyard Engine (Star Citizen) hielte ich uebrigens (als moeglichen Goldstandard) auch fuer ein Muss genauso wie die ForzaTech Engine (Forza Horizon 4).

Des Weiteren waeren noch die LithTech Engine von Monolith (Shadow of Mordor) sowie eine moeglicherweise neue Total War Engine (fuer Total War Spielreihe) sicherlich nicht verkehrt, womit man WB und Sega als Publisher auch im Boot haette ... es gibt wohl doch noch eine ganze Menge von (ungenannten) Haus-Engines groesserer Publisher.
 
XTR³M³ schrieb:
du weisst schon, wer kyle bennet ist, oder? :freak: und der sagt sicherlich nix, wo der sich selber mit in die nesseln setzen würde :daumen:
Ja und wenn er sagt, dass das meiste davon stimmt dann sind nicht 80-90% Dichtung und Wunschdenken sondern 10-20%
 
  • Gefällt mir
Reaktionen: Colindo
RYZ3N schrieb:
Man lernt nie aus [auf beiden Seiten.] ;)
Sehe ich auch so. Einem jeden sollte klar sein, dass das betriebswirtschaftlicher Selstmord wäre, würde [und könnte] AMD nun einen Ryzen 3000 mit +10% IPC, Turbo bis 5,1 GHz, 16C/32T und besserer Effizienz, zu solchen Preisen bringen.

Das wäre es nur, wenn AMD nicht von Intel komplett aus dem öffentlichen Käufermassenbewußtsein verdrängt worden wäre.
Um "Mindshare" nachhaltig zurückzugewinnen müßte AMD genau so einen Preis-/Angebotsschlag setzen, wie es damit geschehen würde, um die gedankliche Kaufblockade zu durchbrechen und auch die "Märkte-Anbieter" zu zwingen, AMD-Produkte populär zu platzieren.

Es wäre genau Wahnsinn, das nicht zu machen - wenn man es machen kann!
 
  • Gefällt mir
Reaktionen: Drölfzehn und Gortha
BosnaMaster schrieb:
danke Jungs, kann Intel auch was an "Abfall" für die 6/4 ect Kerner verwenden
Klar könnten sie die verwenden. Die Frage ist immer, was kaputt ist und welche CPUs man auf dem Markt hat. Die 4 Kerner momentan sind aber auf einer anderen Basis, denke ich. Intel fertigt eh viele und deren Fertigung dürfte inzwischen so wenige Fehler produzieren, dass es nicht so wichtig ist.

AMD nutzt bis zu 99% der aktuellen Chips und über 80% sollen 8 heile Kerne haben, sagen einige Berichte. Bei Intel dürfte es ähnlich sein. Ich weiß halt nur nicht, wo sie die verwenden.

In Notebooks ist das übrigens Coffee Lake H und nicht S.
 
Zuletzt bearbeitet: (Link eingefügt)
Danke @usb2_2. Das ist tatsächlich nicht ganz rausgekommen. Macht aber Intel auch.

Bzgl deines Kommentars:
usb2_2 schrieb:
Die Zahlen wirst du aber nirgends genau finden. Die Wafer von TSMC werden aber einiges mehr kosten, als die letzten bei Globalfoundries.

Weder TSMC, GF noch Intel produzieren Reinstsiliziumwafer selbst. Diese werden von Zulieferern produziert (z.B. das deutsche Unternehmen Siltronic)
Daher würde ich behaupten sind die Kosten eines Wafers für jede Foundry gleich (vorrausgesetzt man spricht vom gleichen Qualitätsstandard. Dass der 7nm Prozess hochwertigere Wafer benötigt wie ein 28nm Prozess sollte klar sein)
 
Zurück
Oben