News AMD: Ryzen 3000, Epyc 2 und Navi kommen im dritten Quartal

Hallo zusammen,

@ Jens911

Jens911 schrieb:
Es werden doch nicht mal ordentlich 6 ausgelastet und dann das doppelte?

Das ist mittlerweile so nicht mehr richtig. Denn es gibt so ca. eine Handvoll Spiele, die 6 Kerne gut Auszulasten Verstehen und damit meine ich, spürbar Auszunutzen Verstehen. Hier kann man wohl sicherlich Sagen, daß aktuell langsam aber sicher ein Wandel einher geht zu verstärkter und gewinnbringender Auslastung von mehr als 4 Kernen.

Jens911 schrieb:
Hab irgendwie so ein Gefühl das wird so ein FX-8350 Ding.

Der Vergleich ist Hinten und Vorne daneben. Schon die erste Ryzen Generation brachte beinahe eine Steigerung um ca. 50 % gegenüber der von dir genannten AMD-CPU Generation. Da will ich noch nicht einmal vom Verbrauch und den sonstigen Komplikationen Reden, welche die FX Generation so mit sich brachte. Die Threads hier im Forum sprechen da wirklich Bände.

Ryzen 3000 wird im besonderen beim IPC Respektive Intel eine Annäherung beinahe auf ähnlichem Niveau Bringen, bei günstigerem Verbrauch. Das kann man schon durchaus als gegeben Sehen, basierend auf den Daten die bisherig verfügbar sind. Es wird in jedem Fall spannend, zumal Intel im 14 Nm Prozeß auf absehbare Zeit fest hängt und die i9 Modelle sowieso schon in jeder Hinsicht am Anschlag Laufen. Die Ryzen Generation hingegen steht am Anfang.

So long...
 
  • Gefällt mir
Reaktionen: yummycandy und aldaric
Luxmanl525 schrieb:
Schon die erste Ryzen Generation brachte beinahe eine Steigerung um ca. 50 % gegenüber der von dir genannten AMD-CPU Generation.
Je nachdem von was man redet, sind es auch weit mehr als 50%. Im Anwendungsrating sind es +81% vom FX-8370 auf den 1800X.
Im 1080p Gaming sind es 48%.

Und um beim Gaming zu bleiben, schon Ryzen 2000 brachte noch mal +12% oben drauf und mit Ryzen 3000 wurde viel mehr verbessert, als mit Ryzen 2000.

Luxmanl525 schrieb:
Ryzen 3000 wird im besonderen beim IPC Respektive Intel eine Annäherung beinahe auf ähnlichem Niveau Bringen
Man ist mit Ryzen 2000 bereits auf ähnlichem Niveau, mit Ryzen 3000 wird man dahingehend ziemlich sicher leicht in Führung sein.
 
  • Gefällt mir
Reaktionen: Gortha und .Snoopy.
snickii schrieb:
Und alle so: "Navi wird so gut und schlägt Nvidia bestimmt"
Nach Release: "Navi ist 10-15% schneller als die 2080"

und alle sind enttäuscht.
Aber Ryzen könnte mal was geiles werden, allerdings denke ich das Intel dann direkt nachzieht mit 6Ghz

"alle" haben dann aber keine CB News verfolgt. Da ja wir von anfangan über CB erfahren haben das Navi (vorerst) den Mainstreambereich abdecken wird. Das war schon Anfang 2018 bekannt. Und jetzt wird es nochmals bestätigt das Navi unterhalb von Radeon 7 angesiedelt sein wird.
Wer da entäuscht ist hat 12 Monate Hardware News ingnoriert und hat sowieso keinen Plan wie es in der Industrie so läuft.

6 Ghz erscheinen mir mehr als nur unrealistisch. Freu mich auf Navi. Auch wen ich mit meiner RX480 noch ganz zufrieden bin.

https://www.pcgameshardware.de/AMD-...597/News/Navi-10-Mainstream-Leistung-1254329/
 
HardStyler3 schrieb:
einfach nen
AMD Ryzen 3 1200 4x 3.10GHz So.AM4 BOX für 60 euro bei mindfactory anschaffen kann man super weiterverkaufen danach

Naja da gehts ja auch um den neuen Basistakt für den RAM, PCI 4.0 usw. Das ist will ich mir ja nich alles neu kaufen (auch wenn es abwärtskompatibel ist).
Außerdem wird der gebrauchtmarkt wenn Ryzen 3000 kommt sicher absolut geflutet mir alten Ryzen generationen.
 
Mal was ganz anderes in die Runde:
Den Ryzen 2600 gibt es momentan im Mindstar für 129,90€. Den Preis finde ich schon sehr sportlich.
Denkt ihr, der Preis wird noch sinken, wenn Matisse erstmal erscheint (Richtung 100€)? Oder wird sich Matisse preislich oberhalb positionieren sodass der 2600 weiterhin zu diesem Kurs (~130€) bleibt?
Natürlich hat niemand eine Glaskugel, aber Erfahrungsberichte oder Schätzungen von erfahrenen Mitgliedern wäre hilfreich:)
Leistung des 2600 würde mir mehr als reichen, es geht eher um den Preis. Wäre schade wenn ich den kaufe und es dann zu Release von Matisse weiter fällt oder wenn es den Matisse für den Kurs zu haben gibt.
Eilig habe ich es eigentlich nicht. Will nur preislich im richtigen Moment zuschlagen :)
 
Matisse wird den 2600 ersetzen in Form eines 3600. Vlt. gibt es dann noch Abverkäufe im Mindstar für die alte Generation. Ob es so kommt weiß man nicht.
 
Dann kann mein ivy-bridge endlich zu meinem Bruder in den Rechner :p ich liebäugle ja mit dem 8 oder 12 Kerner...
 
v_ossi schrieb:
Hält Lisa Su ein Ryzen 3000 mit 2 Core Chiplets in die Kamera, bestätigt 12 Kerne zum Marktstart und zeigt irgendeinen Singlecore Benchmark auf Augenhöhe mit Intel, müsste das eigentlich schon reichen um den Hype Train nicht entgleisen zu lassen.

Bei entscheidend weniger Stromverbrauch im direkten Vergleich ... oh ja !!
 
  • Gefällt mir
Reaktionen: TIMOTOX und v_ossi
Aldaric87 schrieb:
@LuckyMagnum

Und wie willst du bitte beurteilen das die Radeon VII nicht erfolgreich ist ? Sie mag zwar nur in geringen Stückzahlen erscheinen, die gehn aber ohne Probleme scheinbar weg.
Wo gehen die bitte weg? Die Karte liefert in 1080p die Leistung einer 2070 (wenn überhaupt) und kostet so viel wie eine 2080.
Ergänzung ()

Inxession schrieb:
Ob nun erfolgreich oder nicht.... Die Radeon VII ist AMDs High End. Nichts anderes sagt AMD.

Die 2080ti ist sicher auch nicht die erfolgreichste nVidia Karte...

? Eben nicht. Lies nochmal, was AMD geschrieben hat:
Sie behaupten, sie wären mit dieser Karte erfolgreich im HighEnd. Was nicht korrekt ist.

Was hat die 2080ti damit zu tun? Nichts. Also irgendwie redest du ziemlich an dem vorbei, was ich und AMD geschrieben haben. Da scheinst du etwas missverstanden zu haben :confused_alt:

Nochmal: Mir geht es nicht darum, AMD schlecht zu reden (Im Gegenteil, ich freue mich auf Ryzen 3000) aber das Preis/Leistungsverhältnis der Radeon VII sehe ich momentan einfach nicht gegeben; besonders in Anbetracht der Konkurrenz. Siehe auch den CB-Test dazu.
 
Taxxor schrieb:
Im Gaming tippe ich auf +20 bis +25%

Das wäre quasi 9900k Gaming-Niveau mit der Sicherheit von einfach mal 50% mehr Kernen/Threads.
Das wäre zu gut für 399€ :D

Ich würde es natürlich begrüßen ^^
 
  • Gefällt mir
Reaktionen: yummycandy
LuckyMagnum schrieb:
Nochmal: Mir geht es nicht darum, AMD schlecht zu reden (Im Gegenteil, ich freue mich auf Ryzen 3000) aber das Preis/Leistungsverhältnis der Radeon VII sehe ich momentan einfach nicht gegeben; besonders in Anbetracht der Konkurrenz. Siehe auch den CB-Test dazu.

Du kannst die Radeon VII einfach als Zeichen sehen, dass AMD noch Produkte liefern kann die oben mitspielen. Die Radedon VII wäre nie gekommen, hätte nVidia die Preise nicht derart hochgesetzt, um AMD Spielraum zu geben, solch eine Karte mit 16 GB HBM2 zu bringen.

Abseits von Gaming hat die Karte aber durchaus ihren Sinn, denn die Compute-Leistung ist bei ihr ziemlich hoch. Das sieht man leider in den CB Tests nicht, aber auf anderen Seiten wird das durchaus mitgetestet.

Zudem übertreibst du natürlich deutlich mit der Aussage das die Radeon VII kaum die 2070 schlagen würde...da sprechen die Benchmarks von vielen Seiten eine andere Sprache. Es gibt immer mal Ausnahmetitel in beide Richtungen, aber im Schnitt ist sie doch erheblich fixer und näher an der 2080, als an der 2070.
 
  • Gefällt mir
Reaktionen: Gortha
mach 450 € für den 12C als X Version daraus , ich glaube nicht das Preise über 500 € aufgerufen werden für den 12 Kerner . AMD möchte die höherpreisigen CPU s verkaufen , nicht die 6 oder 8 Kerner , wenn sie die 12C/16C zu teuer machen , greifen nur die Freaks zu . Vom Materialaufwand her ist es lediglich ein Chiplet mehr , wenn man dafür 100 - 150 € mehr verlangt sind das zusätzlich 60 - 110 € Gewinn pro Käufer .... , leicht verdientes Geld , gut fürs Image , gut für den Marktanteil . Zufriedene Kunden kaufen dann auch wieder bei AMD in 3 - 4 Jahren ....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha, yummycandy und Caramelito
Jens911 schrieb:
Warum eigentlich 12 Kerne ?
Also die 12 Threads des 2600X schuften bei mir regelmäßig (bei der Softwareentwicklung allerdings), und ich freue mich schon auf höher getaktete 12C/24T falls es denn so kommt.
 
LuckyMagnum schrieb:

Geht schlicht und einfach darum, das AMD wahrscheinlich selbst besser einschätzen kann, als du, ob die Karte nun erfolgreich ist, oder nicht.

Ist ja auch immer eine Frage wie hoch man den Markt eingeschätzt hat.

Im PR war AMD noch nie wirklich gut. Aber mittlerweile besser ...

AMD wird sicherlich auch niemals sagen, das die VII ein Flop ist.
Dennoch kann man damit werben, das es die erfolgreichste Grafikkarte im HighEnd Bereich von AMD ist.
Da es schlicht keine andere gibt...

Man könnte es von Seiten AMD auch noch mit 7nm in Verbindung bringen .. dann ist es die erfolgreichste 7nm High End Karte am Markt.

Ob nun 5, 70 oder 3000 Einheiten verkauft wurden.

Ich weiß allerdings was du meinst. Und ich würde auch gern eine "brutale" Karte von AMD sehen.
Aber einen solchen Wortlaut wird AMD nie verwenden (dürfen) ..

Deshalb ist eine Aussage freilich geschönt. Aber aus deren Sicht auch irgendwie die Wahrheit.
 
Inxession schrieb:
Man könnte es von Seiten AMD auch noch mit 7nm in Verbindung bringen .. dann ist es die erfolgreichste 7nm High End Karte am Markt.
War da nicht was von "erste 7nm Karte der Welt"?
 
Hallo alle miteinander.

Kann man denn anhand der Folie sicher sagen das damit der Release Zeitraum gemeint ist?

Auf der steht ja nur "Strongest Product Portfolio in AMD History" darunter dann die Bereiche Consumer CPU und GPU, Server CPU und GPU. Könnte man es nicht auch so verstehen das AMD in Q3 alles auf dem Markt hat?

Es war ja eine Präsentation für Aktionäre soweit ich das verstanden hab, denen wollte man vielleicht so klar machen das man in Q3 sehr guten Umsatz erwartet. Klar kann man von "in Q3 auf dem Markt" auch schlussfolgern das die Produkte auch in besagtem Quartal released werden aber auch ein Release ende Juni würde bedeuten das man das Produkt in Q3 am Markt hat.

Ich frage mich das nur deshalb weil ich mir einen Reim darauf machen möchte warum die Mainboard-Hersteller jetzt schon teasern und wohlmöglich nach der Computex im Juni schon mit den X570'ern an den Start gehen.
Wäre das nicht komisch ohne die ZEN2 Ryzen 3000 CPUs?

Ich klammere mich hier wahrscheinlich nur an einen Strohhalm da ich mit erscheinen der ZEN2 CPUs gerne mein System aufrüsten möchte. Und es juckt schon so in den Fingern :D
 
ZeroZerp schrieb:
... "Mondpreise" ist eine Erfindung der Gamer. Was wir in letzter Zeit RTX Karten an Render Professionals absetzen, die z.B. mit RTX beschleunigtem Octane arbeiten ist tatsächlich bemerkenswert.
Die Consumer- Karten bieten gegenüber der Vorgänger einen Leistungsschub in Sachen Rendering bis zum Faktor 7. Von den Viewport- Beschleunigungen in den ganzen Game- Engines nicht zu sprechen, wo man nun quasi in Echtzeit seine Szene präsentiert bekommt, wie sie im Spiel aussehen wird.
So schräg sich das für einige von Euch anhört - NVidia kannibalisiert ihre professionellen Reihen derzeit durch ihre RTX Karten und das zu einem für diese Bereiche fast schon irrwitzigen Schleuderpreis.
Das wird ihnen sicherlich weh tun, dass statt 4000,-€ für eine quadro nun für content creation/rendering 1000,-€ für eine 2080ti ausgegeben wird, die das ganze auch noch bis zu 7 mal schneller erledigt als das "professionelle" Pendant der Vorgängergeneration.
Für mich interessant zu sehen, wie so ein Technologiewechsel auch einen Riesen in derartige Konflikte zwingen kann.
Die User heulen rum, weil zu teuer - Die Profis haben tränen in den Augen, weil bis zu 7x schneller zu einem Viertel der vorhergehenden Kosten. Wie man es auch dreht und wendet, erleidet nvidia dadurch von beiden Seiten Schaden.
Ganz schön schräg, was da derzeit abläuft.

Nur, dass die RTX-Karten eben nicht primaer fuer Render-Professionals aufgesetzt wurden, sondern fuer den gemeinen Konsumenten, zu einem Grossteil also Gamer, und somit ist es etwas hanebuechen, die RTX Consumer-Karten mit den Quadro-Karten, die primaer an professionelle Anwender gerichtet sind, preislich zu vergleichen und daraus zu folgern, dass die eigentliche Zielgruppe/Gamer einfach Pech und die vergleichsweise kleine Gruppe Render-Professionals Glueck gehabt haben.

Selbst kannibalisieren wird nVidia eigene Produktreihen damit bestimmt nicht, bei deren GPUs sind die Margen mittlerweile so hoch angesetzt, dass auch nach wie vor die Gewinne kraeftig sprudeln werden, auch wenn der Absatz im Konsumentenbereich lahmt im Vergleich zur Pascal-GPU-Generation, und es gibt immer noch genuegend Lemminge, die einfach nur danach kaufen, welcher Entwickler die GPU mit den laengstem Benchmarkbalken besitzt oder nach hoeren-sagen von nVidia-Fans, auch wenn das fuer die GPU-Leistungsklassen darunter wenig bis meist gar nicht ausschlaggebend ist.

Wenn Du meinst, dass die verhaeltnismaessig guenstige Anschaffung von RTX Turing GPUs fuer Quadro-Kaeufer im Vergleich zu den hochpreisig angesetzten professionellen Quadro-GPU-Produkten von nVidia die RTX Turing Mondpreise rechtfertigen, kann ich Dir auch nicht mehr helfen (die GTX 2080Ti im Schnitt wohl so im 1300 Euro Bereich nennst Du eine Schleuderpreis-Karte :freak:, oh fuer Profi-Anwender natuerlich, dann ist die Karte ja so fuer alle prima preislich angesetzt, auch fuer den Normal-Konsumenten als Primaeradressaten und im Vergleich zum GTX 1080Ti Vorgaengermodell, aber sonst geht es noch gut?).

Das macht genauso viel Sinn wie einen VW Golf GTI als Schleuderpreis-Auto fuer Multi-Millionaere zu titulieren, weil dieser in Sachen Beschleunigung mit einigen vielfach teureren Superluxus-Sportrennkarossen vielleicht halbwegs noch mithalten kann und damit werden Massstaebe/Kaeufergruppen einfach durcheinander geworfen, um irgendwelche Wunschthesen zu rechtfertigen in Pippi Langstrumpf Manier ... sorry, mit Logik und Aussagekraft sowie gerechtfertigten Preisen fuer bislang unausgegorene RTX-Karten (mangels breiter und optimierter Unterstuetzung von RTX-Features und noch sehr eingeschraenkter Leistungsfaehigkeit bei Nutzung dieser) hat dieser Aepfel-Birnen Vergleich wenig bis gar nichts zu tun :rolleyes:.

Die Entwicklung ist von nVidia bis in kleinste durchkalkuliert, wieviel Speicher es fuer jedes Modell gibt (jetzt in einigen Faellen weniger als beim bzgl. Leistung vergleichbaren Vorgaengermodell, bspw. bei der RTX 2060 im Vergleich zur GTX1070Ti) und wo die GPU-Klassen und -Kaeufergruppen preislich angesetzt werden.

Von Konflikt, geschweige denn Schaden, kann da keine Rede sein, denn dazu wird dieser Konzern viel zu sehr von Control-Freaks gelenkt, was allseits eigentlich bekannt sein duerfte (nicht nur aufgrund der dortigen Medien-NDA- oder Boardpartner-Politik, aber bspw. auch an der vorwiegenden Ausrichtung auf proprietaere/eigene Standards).

Die normalen Konsumenten interessiert es nicht die Bohne, wenn einige Render-Profis guenstiger an RTX Karten kommen koennen, denn im Endeffekt aendert es gar nichts an der ueberzogenen Preispolitik nVidias fuer die eigentliche Zielgruppe, aber Du versuchst jetzt die Mondpreise mit bizarrer Argumentation zu rechtfertigen.

Und das, obwohl so gut wie ueberall in der Fachpresse und bei einigen Spielern der Tenor gleich ist hinsichtlich dem (sehr) geringen bis gar keinem Mehrwert von RTX Turing GPUs derzeit und Huang wohl auch selbst eingesehen hat, dass RTX alleine und teuer eben nicht reicht und sich nicht jeder eine unausgegorene Technikumsetzung/-unterstuetzung in erster Generation aufzwingen lassen will (weswegen es immer noch GTX Karten gibt und man dort doppelgleisig fahren muss, was nicht gerade ueberzeugend im Hinblick auf die RTX-Features wirkt).
It’s no secret that NVIDIA has been struggling to convince gamers that its latest Turing architecture is worth the expensive investment with only a handful of games supporting the new features and some gamers even unsure if they’re seeing any difference.

Du kannst Dir noch so sehr die Preispolitik von nVidia (neuerdings also mit neuen, vergleichsweise kleinen Nutzer-/Zielgruppen) schoen reden, es aendert nichts an der Tatsache, dass viele keine Notwendigkeit fuer einen nVidia RTX Turing GPU-Kauf aktuell sehen, denn es wird nach wie vor fuer den Preis von nVidia viel zu wenig geboten, aber es bleibt ja zum Glueck die Hoffnung, dass sich das irgendwann einmal aendern koennte (mit einem fuer dieses Jahr noch vor kurzem kolportierten 12nm Turing-RTX-Refresh mit leicht erhoehten Taktraten von Speicher und GPUs, waere es aber mit Sicherheit nicht getan) ;).

Fakt ist/bleibt, fuer die eigentliche Zielgruppe lohnen sich die RTX-Features der verhaeltnismaessig teuren Turing GPUs nicht und da wird man die zweite oder dritte Generation abwarten muessen als auch den Eintritt der Konkurrenz (AMD/RTG und hoffentlich irgendwann auch Intel) in den RT-Raytracing Markt im Konsumenten-Segment, denn erst dadurch duerften sich die Preise in gerechtfertigt gemaessigte Gefilde begeben, so dass die Technik auf breiter Basis erschwinglich wird und nicht nur fuer die Early Adopter oder Hobby-Enthusiasten, die sich die ersten Extrawurst RTX-Turing-Oberklasse GPUs leisten koennen oder wollen.

Gut, das Ganze passt hier auch nur eingeschraenkt her, besser waere ein Thread zu den aktuellen nVidia Unternehmenszahlen und RTX Turing Geruechten (falls denn gewollt), wobei letztere natuerlich auf die Navi-GPU Verkaeufe einen Einfluess haben koennten, falls sie sich als wahr heraus stellen werden (wobei ich aktuell doch noch sehr damit hadere bzw. daran zweifle).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DrDoom
Zurück
Oben