News Ryzen 3000 & Radeon RX 3000: Fantastische Gerüchte zu AMDs CPU- und GPU-Zukunft

peru3232 schrieb:
der Aktienkurs hat wiedermal massiv nachgegeben in den letzten 24 Stunden, bei AMD normalerweise ein Zeichen, dass etwas tolles folgen wird

Die Technologie-Aktien der USA sind seit 2 Tagen generell im Tiefflug. Ich halte es für sehr unwahrscheinlich, dass die AMD Aktie so massiv auf diese Gerüchte reagiert hat
 
Manch einer hier erinnert mich an einen Junkie, der Koks in der Luft riecht. Ich frag mich dann immer, wie man auf Gerüchte so dermaßen geil sein kann.
Ich sehe schon die Leute reihenweiße schimpfen, wenn die Gerüchte nicht zutreffen.
Lasst euch doch nicht so vorm Ofen hervorlocken.
 
  • Gefällt mir
Reaktionen: Chismon, AffenJack und HaZweiOh
RYZ3N schrieb:
Wie sollte es denn danach weitergehen? Jede neue Generation wäre schon fast von vornherein eine Enttäuschung oder man müsste nun dauerhaft solche Fortschritte machen.
Intel hat das doch auch geschafft. Traust du sowas AMD nicht zu?
RYZ3N schrieb:
dafür realistischer
Das ja nun wirklich nicht. Wenn man daran zweifelt, dass die neuen CPUs nicht mal mehr 25% mehr Leistung zu 14nm also Ryzen 1000 bieten (Beitrag #429), dann sieht man das schon sehr pessimistisch und kein Stück realistisch.

Du sprichst ja auch von 7-10% IPC (zu Ryzen 2000?, dann gehe ich beim Takt nochmal runter), die du realistisch nennst. Dazu noch 13-17% mehr Takt, der locker drin sein dürfte, da 7nm effizienter ist und die aktuellen den Takt ja auch mit höherer TDP halten könnten. Wenn wir den R7 1700 nehmen, da der ja mit 65w 3GHz schafft, dann müsste ein 3600 mit 8 Kernen (da man ja entweder mehr Kerne oder mehr Takt bekommen sollte) bei 3,4-3,5GHz liegen. Wenn deine bis zu 10% IPC zu Ryzen 2000 sind, dann braucht es sogar nur 3,2-3,4GHz bei 65w und 8 Kernen.

Das ist jetzt aber mehr als realistisch. Da müsste mir @Holt auch zustimmen. Zur Erinnerung meine Aussage, die angeblich unrealistisch sein soll:
7nm erlaubt 25%+ mehr Leistung, als GF14nm bei GPUs. Also warum dann nicht bei Ryzen?
Leistung mal unterstrichen, da ich anfangs davon geschrieben habe.

Selbst 20% mehr Takt, dann 3,6 GHz bei 8 Kernen und 65w sind nicht so unrealistisch. Oder 4,1 für 8 Kerne bei 95w. Und natürlich geht man hier von dem Basistakt aus, wenn man über den Turbo redet gibt es zu viele Dinge, die man nicht kontrollieren kann. XFR 3 kann viel besser sein. einige Kerne könnten viel besser sein usw. siehe auch die mobilen CPUs von Intel und sogar AMD.

Ich bleibe dabei, dass 25% mehr Leistung ggü. 14nm Ryzen drin sind. Wenn wir dann noch 95w Ryzen 7 nur Multicore angucken sind die eh drin, da mehr Kerne bei gleicher TDP einfach schneller sind. Siehe heutige CPUs, falls mir einer nicht glauben will.

Selbst, wenn sie nur maximal 8 Kerne bei Ryzen 7 3000 verkaufen dürften es 25% mehr Leistung ggü. 14nm Ryzen sein. Gleiche Rechnung natürlich.
 
  • Gefällt mir
Reaktionen: dohderbert, SVΞN und HaZweiOh
Scheiß mal auf die CPUs bin mal auf den 135W Boxedkühler gespannt:love::love:
 
Die technischen Daten er Ryzen sind meiner Meinung nach gar nicht so abwegig, eher sind es die Preise.
16C passen gut ins Portfolio rein, aber wenn es analog zu Rome sein wird und das ist offiziell AMDs Plan - one chip fits all, dann wird es ein Dual-Die-Chip sein und aktuelle Dual-Die hat idR nicht die gewünschte Performance beim zocken, zu langsam ist der Interconnect dafür.

Die Gerüchte um die neuen RX empfinde ich eher als Quatsch.
 
  • Gefällt mir
Reaktionen: dohderbert
Shoryuken94 schrieb:
Damit deine Rechnung aufgeht, müsste AMD mit GCN die Rohleistung auch 1 zu 1 in Spielen umsetzen und ca. auf dem Niveau ankommen, wo Nvidia zur Zeit steht.
Es ging doch nur um den Vergleich Navi zu Vega, da hat Nvidia ja nichts mit zu tun, oder das allgemeine Verhältnis von Rohleistung zu Spieleleistung.
Vergleicht man nur die AMD Karten, kann man aber schon sagen, dass 10% mehr Rohleistung als die vorherigen Karten auch 10% mehr Spieleleistung entsprechen.
Ergänzung ()

XTR³M³ schrieb:
mach aus den 50% mal so 80-90%:
Andersrum, mach daraus 10-20%, dann macht die Aussage Sinn
 
  • Gefällt mir
Reaktionen: usb2_2
Krautmaster schrieb:
... interessiert mich das als einfacher Anwender welches Game für welche Architektur wie optimiert ist? Wenn der Parcour einen solchen Umfang hat spielen ein paar Ausreißer in die ein oder andere Richtung eh kaum ne Rolle. Dafür gibts hier ja auch die Filtermöglichkeit. Ich finde das im Zweifelsfall besser als dem Anwender eben dieses Ergebnis dann zu vorenthalten. Da stellt sich dann immer die Frage ab wann dieser "Ausreißer" auch ein solcher ist. Wo fange ich an, wo hör ich auf.

Recht hast Du, die Filtermoeglichkeit, gibt es, diese wird aber von vielen nicht genutzt und viel wichtiger, CB schert sich eigentlich nicht sonderlich darum, sondern geht meist vorwiegend auf den Durchschnittswert des Parcours in den unterschiedlichen Aufloesungen (und bei unterschiedlichen Grafiksettings) ein, was der Testleser natuerlich sofort in eine bestimmte Richtung auslegt.

Die wenigsten Leser werden sich die gefilterten Einzelbenchmarks anschauen, viele ueberfliegen den Artikel und dann ist das Urteil kurz und knapp getroffen (das muessen nicht einmal exklusiv die "Fazit-Springer" sein ;)) und da machen Aussreisser schon eine Menge aus, wie man an duststalkers "Ausflug in die Malerei" gut sehen kann und besten Dank fuer die gemachte Muehe an letzteren (ich finde so etwas wird hier viel zu selten honoriert, egal/abseits davon, ob man nun mit der Analyse "d'accord" ist oder nicht).

Die Optimierung von Titeln speziell auf die Architektur des einen oder anderen Herstellers kann eine Menge ausmachen, oft mehr als die Architekturunterschiede/Spezifikationen das unter normalen Bedingungen zulassen, da werden dann starke Beguenstigungen geschaffen, die bizzarrerweise so manchmal ueber die Leistungsklasse hinausgehen und eine Mittelklassekarte dann auf dem Niveau der Oberklassekarte des anderen Herstellers angesiedelt ist, auch wenn Leistungsfaehigkeitsunterschiede auf dem Papier/anhand der Rohdaten dem krass gegenueber stehen.

Natuerlich ist es nicht einfach, da generell irgendwelche Bedingungen zur Ausgrenzung oder noch Toleranz von Titeln fuer den Parcours zu entwerfen, aber Final Fantasy XV ist ein ziemlicher Wink mit dem Zaunpfahl und hat m.E. in einem serioesen direkten Vergleich der beiden GPU-Entwickler nichts zu suchen ... es ist mehr eine nVidia Gameworks Machbarkeitsstudie als alles andere.

Ich waere auch dafuer, dass von jedem Publisher nicht mehr als ein einziges Spiel in den CB Parcours aufgenommen wird, also nicht 2-3 Ubisoft Titel, 2 EA Titel, 2 Square Enix Titel, 2 Activision-Blizzard Titel, 2 Bethesda Titel, usw. ... das sollte eigentlich ohne Probleme moeglich sein, zumal nicht immer die grafisch anspruchsvollsten Spieletitel auch gleichzeitig die beliebtesten sind.

Das koennte das ganze Bild ausgewogener gestalten, auch wenn man Gameworks oder Bundle-Titel-Sponsoring (und die von den GPU Entwicklern damit verbundenen Anreize fuer die Spielentwickler) damit sicherlich nicht als Einflussfaktoren beseitigen wird koennen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo und dohderbert
Wenn dies so kommt, dann werde ich wohl nach langer Zeit wieder einmal zur AMD wechseln.
Aber ich bin etwas unsicher, machen die 16 Kerne bei der Ryzen 9 nicht mehr ärger als das dies was bringt? Selbes mit Ryzen 7.
 
  • Gefällt mir
Reaktionen: dohderbert
Project-X schrieb:
Aber ich bin etwas unsicher, machen die 16 Kerne bei der Ryzen 9 nicht mehr ärger als das dies was bringt?
Du machst dir Sorgen über etwas was es noch nicht mal gibt, keine Daten nur Gerüchte.
Als Zocker brauchst du so schnell keine 16 Kerne und wenn du den kaufen würdest, kannst gleich SMT ausschalten und Takt Spannung optimieren. Fertig, keine Sorgen nötig.
 
Glaube ich erst, wenn man jene Endprodukte in unabhängigen Tests vorfindet. Bis dahin schadet der Hype Train mMn mehr als das er nützt. Gamer können mit mehr als 8 Kernen eh kaum was anfangen und GPU technisch kommt scheinbar nichts über einer Vega64. Schafft man wenigstens den Stromverbrauch zur Konkurrenz?
 
RYZ3N schrieb:
Das ist Blödsinn.

Ist doch heute [mit dem 2700X] auch schon so.

Das Topmodell mit den meisten Kernen hat [mit 4,35 GHz] auch den höchsten Turbo.

Liebe Grüße
Sven

ja...leider. Hätte der 2600x die selben Boosts wäre er wegen besserem Tempmanagement & Strommanagement in vielen Games wohl etwas schneller als der große Bruder, da er durchschnittlich höhere Takte hinbekommen würde.
 
@HaZweiOh Die Anmerkungen vom 3dcenter sind aber auch "wenig durchdacht". Letztendlich kann das Pendel eben in beide Richtungen ausschlagen.

Das dort 'geleakte' und gezeigte Bild dient Jim laut Video nur zur Validierung seiner Quelle. Und darüber hinaus sieht das nur wie ein fotografierter Bildschirm aus. Das kann im konstruiertesten Fall sogar ein Hausmeister gemacht und seinem Freund geschickt haben, der sich doch für "solchen Kram" interessiert.
Zudem kann das auch schon ein paar Monate alt sein.
Und evtl. nicht von AMD direkt kommen, sondern z.B. bei einem der Mainboard Hersteller gemacht worden sein.

Die 5Ghz beim Threadripper sind zudem recht offensichtlich der Boost Takt und nicht der Base Takt. Vlt. hat man einfach gesehen, dass die Chiplets (mit etwas Binning) recht zuverlässig 5GHz schaffen und diesen somit als max. Einkern Boost festgelegt. Dann sucht man jetzt noch den Sweetspot, bei dem man 32 Kerne kühl und sparsam betreiben kann, hält aber schon mal den fürs Marketing wichtigen 5GHz Boost fest.
Dann müsste da eben ?/5Ghz statt 5GHz/? stehen.

Und die Bedenken bezüglich der Speicheranbindung der IGPU?
Das ist doch reiner Spekulatius. Wie das mit einem I/O Die aussehen könnte und welcher Speicher mit welcher Geschwindigkeit angesprochen werden kann, ist eine der größten Fragezeichen hinter dem Leak. Genau dazu wurde auch bei dem Epyc Event am wenigsten gesagt.

Also wie immer; alles kann, nichts muss.
 
  • Gefällt mir
Reaktionen: dohderbert
Taxxor schrieb:
Es ging doch nur um den Vergleich Navi zu Vega, da hat Nvidia ja nichts mit zu tun, oder das allgemeine Verhältnis von Rohleistung zu Spieleleistung.
Vergleicht man nur die AMD Karten, kann man aber schon sagen, dass 10% mehr Rohleistung als die vorherigen Karten auch 10% mehr Spieleleistung entsprechen.

Das stimmt, aber um die Vega 64 + 15% mit 40CUs zu schaffen, müssten sie entweder 3Ghz Takt anlegen, was ich ich doch stark bezweifel. Oder aber sie müssten ein ähnliches Verhältnis von Rohleistung zu Gamingleistung wie Nvidia schaffen.

40 CUs sind genau 2560 Shader. Weißt du, welche Grafikkarte auch 2560 Shader hat? Richtig die GTX 1080. Vega 7nm taktet in etwa mit 1,8Ghz. Gehen wir davon aus, dass AMD noch etwas mehr bei Navi rausholen kann sagen wir 2Ghz. Und rate mal, welche Karte auch 2560 Mhz und taktet mit 1800-2000mhz, richtig, eine GTX 1080.

Un nun bemühen wir den taschenrechner und merken, Hoppla. Navi hätte in dem Fall in etwa die gleiche Rohleistung wie die 1080. Bei 1,8 Ghz wären dass ~9,21 Tflops.

Vega 64 und 1080 sind im Schnitt in etwa gleich schnell (bei neueren Titel ist vega etwas weiter vorne, bei älteren öfters die 1080). Vega 64 hat allerdings eine deutlich höhere Rohleistung. Bei 1,55Ghz (Air) sind es ~12,7 Tflops, bei der LC Version / Custom Modelle (wir wissen ja nicht worauf sich die aussage bezieht) sind es knappe 14 Tflops.

Trotzdem sind 1080 und Vega 64 in etwa gleich auf. Also müsste Navi mit ~9Tflops in etwa die Leistung von Vega mit ~14 Tflops erreichen, so wie die 1080 auch. Ergo müsst Navi in etwa das gleiche Verhältnis von Rohleistung zu Gamingperformance wie Nvidia besitzen.
 
  • Gefällt mir
Reaktionen: dohderbert
Die avisierten [und spekulativen] Leistungs- und Verbrauchsdaten der vermeintlichen Radeon RX 3000 Serie, sind im Hinblick auf den genannten Verbrauch bzw. die TDP-Klassen, noch unrealistischer als die Gerüchte um die Ryzen 3000 Serie.

Wenn Navi auf der Radeon RX 3060 und RX 3080 auch nur annährend so kommt wie die Gerüchte verlautbaren lassen, dann wäre das ein echter Gamechanger.

Ich kann es mir nur [ganz] schwer vorstellen, würde mich aber sehr freuen. NVIDIA wäre somit gezwungen im Preisbereich von 200,- bis 500,- Euro nachzulegen und davon würden alle [Konsumenten] profitieren [egal ob sie NVIDIA oder AMD bevorzugen.]

Lassen wir uns überraschen, langweilig wird's sicherlich nicht. :)

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: dohderbert
Alles, was es den High End Enthusiasten und FPS Junkies ermöglicht, endlich eine andere Kombo als das Modell "Nvidia + Gsync + Intel = alternativlos gesetzt für beste fps bei smooth über das gesamte Framespektrum bei Ultra Slidern -experience" zu kaufen, ist zu einer kaum in Worte zu fassenden Dringlichkeit nötig.
Ein Jahr 2019, in dem eine AMD CPU und GPU Kombo in einem Gamer PC die 1440p und 4K Benchmarks in aktuellen Spielen anführen, wäre endlich mal "wie früher" und ein Traum und für "uns" als Gamer endlich mal wieder nötig. Für Nvidia übrigens auch. Im Midrange CPU Markt wurde Intel vom Ryzen zumindest bereits zerlegt.

Ob das wirklich so kommt, schauen wir mal.
 
  • Gefällt mir
Reaktionen: dohderbert und SVΞN
Lag man ja richtig, wenn man sagte, kauft nen sehr gutes Board, damit man beim Nachfolger soweit alle Optionen nutzen kann die kommen.
Mal sehen, entweder dann ein Ryzen 5 3000 - oder R9 und SMT deaktivieren und Kerne hoch prügeln :D
 
Holt schrieb:
So ein getrolle, denn Trolle unterstellen andere etwas gesagt zu haben was diese gar nicht gesagt haben um es dann ins Lächerliche zu ziehen. Noch einer für die Ignoreliste!

Ganz ruhig und locker bleiben.
Was ich ausdrücken wollte war eine logische Verlängerung von dem was Du geschrieben hattest:

Holt schrieb:
Nicht trotz, sondern wegen des neuen Fertigungsprozess, denn die neue Prozesse sind anfangs nicht so taktfreudig wie die alten. Das war bei Intel ersten 14nm CPUs nicht anderes...

Das bedeutet das Intel´s 14+++nm Prozess derart optimiert wurde das er höher taktet als die ersten 14nm Exemplare, stimmt ja auch.
Aber wenn Du voller Überzeugung schreibst "...denn die neue Prozesse sind anfangs nicht so taktfreudig wie die alten" bedeutet das, Deinem Argument folgend, einen taktmäßigen Rückschritt zum Vorgängerprozess (14/12nm).
Somit unterstellst Du dem 7nm Prozess langsamer zu sein als der derzeitige 12nm Prozess, weil es ja ein "neuer Prozess" ist und dieser nicht so taktfreudig wie der alte sein kann.
Da der 12nm aber auch langsamer ist als Intel´s 14++++... kann also nichts neues schneller sein als der dieser.
Logisch - oder? Und das hast Du selbst geschrieben.

Das hat mit Trollen wenig zu tun, mit ins lächerliche ziehen vielleicht.
Das fange ich üblicherweise erst an wenn jemand seine eigene Meinung als die einzig wahre verkündet (obwohl ich fachlich eigentlich viel von Dir halte).
Ich hoffe auf ein warmes Plätzen auf Deiner Ignoreliste.
 
  • Gefällt mir
Reaktionen: HaZweiOh, Rockstar85 und dohderbert
Laut nett anzuschauenender Auflistung der gemunkelten AMD CPU Spezifikationen bei WccfTech wuerde man fuer 5.0 GHz im Boost mindestens einen 12-Kerner brauchen, der als R7 3700X um einiges guenstiger den kolportierten Preisen nach zu haben sein soll (fuer nur 329 US$) und mit einer TDP von 105 W angegeben ist bei 4.2 GHz Basistakt.

Also wenn dann entweder den oder gleich das 16-Kerne Flaggschiff R9 3850X mit 4.3 GHz Basis- und 5.1 GHz Boosttakt und letzteres soll dann angeblich schon im Mai 2019 erscheinen (aber ob die spekulierten 170US$ Aufpreis von 12 auf 16 Kerne wirklich lohnen wuerden?) ... halleluja, und fuer wann ist Intels 10nm Ice Lake (passend mit mindestens 12 Kerne-Spitzenmainstreammodell im Gegenzug) noch einmal angekuendigt :p?

Und AMDs Castle Peak/Threadripper der dritten Generation soll dann erst bei 20-Kerne-CPUs anfangen oder was?
 
Zuletzt bearbeitet:
Zurück
Oben