News AMD Ryzen im Frühjahr 2022: Ryzen 7 5800X3D kostet 449 USD und kommt in Begleitung

@Convert
Dann solltest du nicht den Begriff "Extern" verwenden sondern wie du jetzt erwähnt hast von "dediziert" schreiben. Sonst hast du das nächste mal das nächste Missverständnis. ;)
image-1432648194492046.jpg
https://geizhals.at/?cat=hwegpu

Im übrigen ist PCIe 4.0 mehr als schnell genug für aktuelle Karten.
Auch wenn du eine 3090 steckst; - was in der Leistungsklasse von kleinen 4000er oder i3/i5 CPUs wohl eher sowieso keiner machen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper
Also wenn wäre nur ein 5900X3D oder 5950X3D interessant für mich.

mfg
 
gustlegga schrieb:
Im übrigen ist PCIe 4.0 mehr als schnell genug für aktuelle Karten.
Auch wenn du eine 3090 steckst; - was in der Leistungsklasse von kleinen 4000er oder i3/i5 CPUs wohl eher sowieso keiner machen wird.
Blöd nur, das die kleinen 4000er wohl kein PCIe 4.0 haben. Wenn man als Aufrüster/Kostensparer noch ein 350/370/450/470er Board verwendet, schon mal gar nicht.

Ups, @Convert war ein paar Sekunden schneller
 
@Convert @McFritte Das ist durchaus ein Argument, ja.
Wobei PCIe 3.0 gar nicht so das Problem bei Einsteiger/Mittelklasse Karten wäre.
Wie gesagt, ich denke nicht dass jemand der bei Verstand ist eine 3080/6800 aufwärts an so eine CPU hängt; die würde am ausgestreckten Arm verhungern.
Nur was AMD da geritten hat die 6500/6600 intern zwar mit 4.0 aber elektrisch auf dem Slot nur mit 8fach anzubinden statt mit generell mit 3*16 , das versteh ich auch bis heute nicht. :confused_alt:
Das wurde ja bei der Vorgängergeneration schon kritisiert. :stock:
Muss man schon etwas aufpassen was man reinsteckt wenns eine Radeon sein soll.
Oder eben Nvidia nehmen. Mit 3.0*16 passt das dann auch von der Bandbreite noch.
 
gustlegga schrieb:
Oder eben Nvidia nehmen. Mit 3.0*16 passt das dann auch von der Bandbreite noch.
Ja das stimmt. Aber dann muss man sich fragen, was AMD geritten hat, den Ryzen 4100 auf 4 MB L3-Cache zu beschneiden, bei 3,8 bis 4,0 GHz im Jahr 2022, wo AMD mit Zen 2-Architektur mit dem Ryzen 3300X bereits 16MB L3-Cache bei 3,8 bis 4,3 Takt für 129 Euro im Jahr 2020 geliefert hat.

https://www.computerbase.de/artikel/prozessoren/amd-ryzen-3-3100-3300x-test.71908/

Da hätte man wenigstens die vollen 8 MB L3-Cache des Renoir-Dies beim 4100 lassen können und den Takt höher als beim 3300X drehen müssen um wenigstens in die Nähe der alten CPU zu kommen... oder es eben ganz lassen sollen. Aber zwei Jahre später eine deutlich schwächere CPU im ähnlichen Preisbereich vorzustellen ist doch armselig.
 
  • Gefällt mir
Reaktionen: chaopanda und simosh
Convert schrieb:
Ja das stimmt. Aber dann muss man sich fragen, was AMD geritten hat
Ich frag mich selber schon auch öfters was manche Firmen, nicht nur AMD, so veranstalten...
Aber das sind weltweit agierende Milliardenkonzerne.
Die interessiert es in erster Linie mal eher weniger was sich der kleine Computerbase-Forist so wünscht....
Aber du kannst ja beim nächsten AMA (Ask me anything) mal probieren ob du von Lisa, Gelsinger oder Lederjacke eine zufriedenstellende Antwort bekommst.
Wäre nett wenn du deine Erkenntnisse dann mit uns teilst. :D
 
Zuletzt bearbeitet: (Typo korrigiert)
  • Gefällt mir
Reaktionen: Col. Jessep
3700x wird abgelöst👍🏼
Auf Zen4 warten wird mir zu Riskant bei den DDR5 Preisen und sicher werden die AM5 Boards auch erstmal nicht günstig sein. Die 20%~ nehm ich gern mit zum 800x, damals beim Intel Monopol haben sich leute über 5% upgrades/neu Anschaffungen gefreut und jetzt wird 20%+ teilweise schlecht geredet😁

Dann ließt man auch Kommentare 8 Kerner 450€ niemals… aber für ein Zocker ist auch ein 12900k zum größtenteil ein 8 Kerner, da die E-Cores beim zocken ja nichts bringen?
 
  • Gefällt mir
Reaktionen: Convert, DerFahnder, Col. Jessep und 5 andere
janer77 schrieb:
So ganz kann ich mir das nicht vorstellen. Sollten die jetzt vorgestellen CPUs in ausreichenden Stückzahlen auf den Markt kommen (was gegen diereinen Resterampe-Theorie sprechen würde) stellt sich für mich zumindest die Frage, ob die Chips tatsächlich großteils defekte Grafik-Einheiten haben (bei den Modellen mit APU-Die) oder weshalb AMD die Modelle in dieser Ausführung auf den Markt bringt.
Für mich ist das hier ne ziemliche offensichtliche Resteverwertung.

Du musst dir klar machen dass die Stückzahlen im freien Handel verglichen zu den Laptops und OEM Fertig PCs ohnehin ziemlich klein sind.
Zudem fertigt AMD die APUs ja schon ziemlich lange. Da dürfte inzwischen ein Recht großer Haufen Teildefekter Chips vorhanden sein die im bisherigen Sortiment einfach wertlos waren und nun als günstige Desktop CPUs angeboten werden können.

Eine vollwertige "günstige" APU hingegen wäre für AMD wirtschaftlich unsinnig solange jeder verkauf bedeutet dass ein amd Laptop bzw OEM PC weniger verkauft werden kann.
Zudem wäre es Marketing technisch schwierig da die Nachfrage hoch und das Angebot zwangsläufig sehr knapp wäre (dann regen sich auch wieder alle auf und sind schlechter gelaunt als wenn es die APU gar nicht im Handel gäbe).
 
  • Gefällt mir
Reaktionen: janer77 und Col. Jessep
Interessant wird dann ja mal sein, wie groß der Leistungsschub wirklich ist und vor allem, wie es sich bei höheren Auflösungen auswirkt. Ich weiß es ja nicht genau, aber gehe doch mal davon aus, dass die Mehrzahl der Spieler, oder zumindest viele nicht mehr auf FullHD spielen. 🤷🏻‍♂️
 
gustlegga schrieb:
Schade. Hätte gehofft der 4350 kommt jetzt auch offiziell und zu vernünftigen Preis so um 100-120€.
Irgendwie hab ich langsam keine Lust mehr auf eine bezahlbare 4C/8T APU zu warten um endlich den länger geplanten HTPC umzusetzen. Die Hoffnung auf AV1 Support in der Mediaengine hab ich mittelfristig ohnehin aufgegeben. Dann muss in 1-2 Jahren halt zusätzlich eine kleine Einsteigergraka her.
Ich werde auf den 4600G gehen, wenn du dann Interesse an einem 4300GE hast kannst du mir ja mal eine PN schreiben.
 
Wattwanderer schrieb:
Ist es eine Produktpflege zwischendurch bis die nächste Generation wieder einen großen Sprung hinlegt oder geht AMD auch die Puste aus?
Das siehst du völlig falsch. Das macht mehr oder minder jeder in der Branche. Es ist nicht unüblich eine neue Technologie noch auf nem "alten" Pferd in die Prärie zu entlassen. Siehe z.B. Intel früher haben die sehr häufig "alte" Architektur mit neuem Fertigungsverfahren aufgelegt und dann kam im selben Node die nächste "Architektur" - richtig versemmelt haben sie es als sie beides gleichzeitig machen wollten...
Ergänzung ()

Leereiyuu schrieb:
Das ist halt eine Upgrade CPU und nichts für ein neues System.
Und wenn man schon ein ordentliches AM4 System hat, dann ist das eine sehr günstige Möglichkeit seinem alten System noch einmal ordentlich Feuer unter dem Hintern zu machen.
Das seh ich anders. Auch ein Neusystem aus 5800x3d und ner 6900 - wird für sehr lange Zeit einem eine Menge Freude bringen. In FullHD wahrscheinlich 5-10 Jahre...
 
Novasun schrieb:
Das seh ich anders. Auch ein Neusystem aus 5800x3d und ner 6900 - wird für sehr lange Zeit einem eine Menge Freude bringen. In FullHD wahrscheinlich 5-10 Jahre...
2.000-2.500 EUR, damit man FullHD spielen kann? Sorry, aber wer so viel Geld in einen PC steckt, der hat auch noch 300 EUR für nen 1440p-Monitor über und wenn nicht, dann hat die Person auch kein Geld für nen neuen PC über.
 
  • Gefällt mir
Reaktionen: Nefcairon, Pro_Bro und simosh
Aljonator schrieb:
Interessant wird dann ja mal sein, wie groß der Leistungsschub wirklich ist und vor allem, wie es sich bei höheren Auflösungen auswirkt. Ich weiß es ja nicht genau, aber gehe doch mal davon aus, dass die Mehrzahl der Spieler, oder zumindest viele nicht mehr auf FullHD spielen. 🤷🏻‍♂️
66% der Steamnutzer sind auf FHD 2021 (was die wohl representativste Plattform darstellt)
Novasun schrieb:
Das seh ich anders. Auch ein Neusystem aus 5800x3d und ner 6900 - wird für sehr lange Zeit einem eine Menge Freude bringen. In FullHD wahrscheinlich 5-10 Jahre...
/sign
so lange man nicht Alles immer auf Ultra+RT zocken will, kommt man damit sehr sehr lange problemlos aus
 
  • Gefällt mir
Reaktionen: Col. Jessep
Orok91 schrieb:
Auf Zen4 warten wird mir zu Riskant bei den DDR5 Preisen und sicher werden die AM5 Boards auch erstmal nicht günstig sein.
IMO ne gute Entscheidung. Ich würde immer mindestens die zweite Chipsatz Generation und bezahlbaren Ram mit guten Timings abwarten. Vorher ist eine neue Plattform in der Vergangenheit seltenst ihr Geld wert gewesen.
Ergänzung ()

Skjöll schrieb:
Die CPUs kommen zu spät, die nächste Generation steht vor der Tür.
Das ist offensichtlich eine aufrüst CPU.
Es macht für die meisten Menschen schon einen Unterschied ob sie ein paar hundert Euro ausgeben und damit für jede gaming Situation nahezu perfekt gerüstet sind oder Mal eben 1,5 - 2k für ne komplett neue und noch überteuerte Plattform raushauen müssen.
 
  • Gefällt mir
Reaktionen: suessi22, Col. Jessep, onkel_axel und 3 andere
Ich bin mit meinem 3600X noch zufrieden und werde wohl erst zur nächsten Generation samt DDR5 wechseln.
Zumindest wenn es in 1-2 Jahren bessere Preise gibt.
 
KurzGedacht schrieb:
IMO ne gute Entscheidung. Ich würde immer mindestens die zweite Chipsatz Generation und bezahlbaren Ram mit guten Timings abwarten. Vorher ist eine neue Plattform in der Vergangenheit seltenst ihr Geld wert gewesen.

Das ist der einzige Grund warum ich mit nem 5800x überhaupt überlege.

Kommt aber sehr auf die tatsächlich Mehrleistung und oc uv verhakten in meinen Games an.

Denn selbst wenn ich jetzt 150-200€ Aufpreis für angenommene 15% mehr CPU Leistung zahle (Verkauf 5800x und neukauf 5800x3d) so muss ich dann sagen: wo bekommt man für so wenig Aufpreis mal eben 15%? mehr CPU Leistung?
Und statt dann Ende 22 in eine early Adapter neue komplette Plattform zu investieren, stecke ich das Geld lieber in neue gpus.

Und ich denke das dann im laufe 2023 nicht nur schneller 32gb RAM „günstig“ da ist, sondern auch boards welche preiswert bzw. Deutlich preiswerter als zum Release sind.
Etwaige Kinderkrankheiten mal außen vor.

In der Theorie fühlt sich das zumindest richtig an.
Und da ich meine settings so wähle das ich hohe fps bekomme, komme ich auch in 2022 mit einem 5800x immer mal ins CPU Limit.
 
  • Gefällt mir
Reaktionen: LukS und danyundsahne
Orok91 schrieb:
jetzt wird 20%+ teilweise schlecht geredet😁

Dann ließt man auch Kommentare 8 Kerner 450€ niemals… aber für ein Zocker ist auch ein 12900k zum größtenteil ein 8 Kerner, da die E-Cores beim zocken ja nichts bringen?

Es wird nicht schlecht geredet, nur der 5800X3D kommt für eine Neuanschaffung (gesamter PC!) zu spät und ist im aktuellen Marktumfeld zu teuer (12700F/K/KF), den 12900K habe ich ehrlich gesagt noch nie als Empfehlung für Gamer gesehen.
Wenn bereits eine Basis (AM4 PC) vorhanden ist und man zu 80+% damit zockt, dann sieht das natürlich anders aus, 8C-Zen3 draufschnallen und viele Jahre alle Games ohne Probleme genießen.
Ergänzung ()

GERmaximus schrieb:
In der Theorie fühlt sich das zumindest richtig an.
Und da ich meine settings so wähle das ich hohe fps bekomme, komme ich auch in 2022 mit einem 5800x immer mal ins CPU Limit.

Klingt so, als wärst du exakt die Zielgruppe für den 5800X3D :)
Wenn man die Steigerung ohne eine große Investition mitnehmen kann, warum nicht?
Bin wirklich auf den Test zum 5800X3D gespannt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Orok91, GERmaximus und eine weitere Person
Bin auf die Tests der X3D gespannt und auf die Straßen-Preise...
 
  • Gefällt mir
Reaktionen: Aljonator
Convert schrieb:
beschnittene Einsteigerkarten wie Radeon RX 6500 XT.
Das problem der 6500XT ist nicht die PCIe Anbindung sondern der zu kleine VRAM für inzwischen viele Spiele. Kann man sogar im Test sehen, wenn man sich den genauer anschaut.

Wenn der VRAM voll läuft. bricht die Leistung im jeden Fall ein, nur mit PCIe wird es ein wenig abgefangen. Sieht man bestens bei den einzelnen Spielen, Witcher 3 ist beim VRAM genügsam, da gibt´s keinen unterschied zwischen PCIe3.0 und 4.0 und die 3050 ist 13% schneller. Bei F1 zum Beispiel ist die 3050 dann über 60% schneller, weil der VRAM von 4 GB überschritten wird, und unter PCIe 3.0 ist die 6500XT noch lanmgsamer, weil mit vollem VRAM quasi jede Bandbreite zählt. Trotz allem ist es eben einfach schlecht, wenn der VRAM voll läuft, war schon immer so.

Der CB-Test ist daher auch irgendwo unglücklich, weil der Einsatzzweck für eine 4GB Karte eben nicht so ganz zu den Testparcours passt, insbesondere, wenn man PCIe gegeneinander testen möchte. Wenn man die Grafikeinstellungen so anpasst, dass der VRAM eben nicht vollläuft, reichen die 4 PCIe3.0 Lanes dann aus, um keine spürbaren Unterschiede zu PCIe4.0 zu haben.
Ähnlich war es schon bei der beschnittenen 5500XT, die gab es sowohl mit 4GB als auch mit 8GB, die 4GB fällt mit vollem VRAM dann stark zurück und PCIe4.0 kann es nur wenig abfangen.

Ich habe auch "nur" eine APU, den 5700G und die Grafikkarte ist auch nur mit 8 Lanes angebunden, trotzdem ist der Leistungsunterschied bei meiner RX6600 maximal nur Messbar zwischen PCIe3.0 und 4.0, aber eher nicht spührbar. Da geht es eher um niedrige einstellige Prozente.
Bei größeren Karten haben wir dann schon wieder die Möglichkeit, 16 Lanes zu nutzen, also auch schon wieder doppelte Bandbreite. Da sparte sich CB schon die PCIe-Vergleiche.

Alles im allen muss man sich dann schon überlegen, was man mit der APU machen möchte, aber in den seltensten Fällen ist PCIe3.0 wirklich ein Problem. Die Budget-CPUs auf Renoir-Basis werden wohl selten mit High-End-Grafikkarten gepaart. Und auch sonst sind die APUs eben nicht die richtige Wahl, wenn man High-End haben möchte. Da haben wir schon den kleineren L3-Cache (gegenüber dem 3D dann schon nur noch ein viertel von Cezanne ausgehend). Dafür haben die APUs andere Vorteile, eben die verhältnismäßig starke iGPU, falls Benötigt. Und bei mir im SFF-Gehäuse hat die APU einen niedrigereren Idle-Verbrauch und die Hotspot-Temperaturen sind auch ein wenig niedriger durch das monolithische Design, was bei verhältnissmäßig kleinen Kühlern nicht ganz unvorteilhaft sein dürfte. Schwerpunkt meiner Entscheidung zu einem 5700G zu greifen war aber die iGPU, die anderen Punkte waren nicht so stark relevant, als dass sie den Kauf alleine gerechtfertigt hätten.
Es wird aber langsam Zeit für AMD dass sie mal einen Grafik-Chiplett herstellen, der dann die CPUs zu APUs machen. Oder nen neuen I/O-CHip in 7nm mit IGP.
 
Zurück
Oben