News CPU-Gerüchte: AMD Ryzen 5 3500X für 140 Euro ab November

[wege]mini schrieb:
m8.....

du hättest für round about 300 euro (board+32gb ram+cpu) einen mehrwert von ca. 10-20% in der cpu leistung.

wenn überhaupt.

kurz und knapp.

mfg

Das heißt es lohnt sich garnicht, und man kann mit HW aus 2013 noch ewig lange nutzen wenn man Mobas, MMOs und C-Shooter laufen lässt?
 
  • Gefällt mir
Reaktionen: [wege]mini
merlin123 schrieb:
Mobas, MMOs und C-Shooter laufen lässt?

die range ist sooooo sinnlos lang, dass ich immer von minimum settings ausgehe....da wird gute 2013 cpu hardware noch locker 2-3 jahre durchhalten, wenn man die gpu regelmäßig gewechselt hat.

den wirklichen "impact" des core wars erwarte ich am gaming markt erst in ca. 2 jahren.

frühestens dann kann man mit unter 8 cores wirklich "gar" nicht mehr zocken.

und natürlich bestimmt der geldbeutel das spiel immer mit. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: Mcr-King
Für alles, was derzeit für Konsolen mit Jaguar APU erscheint, reichen hoch getaktete 4 Kerner aus. Erst recht die intel CPUs.
 
  • Gefällt mir
Reaktionen: [wege]mini
[wege]mini schrieb:
die range ist sooooo sinnlos lang, dass ich immer von minimum settings ausgehe....da wird gute 2013 cpu hardware noch locker 2-3 jahre durchhalten, wenn man die gpu regelmäßig gewechselt hat.

den wirklichen "impact" des core wars erwarte ich am gaming markt erst in ca. 2 jahren.

frühestens dann kann man mit unter 8 cores wirklich "gar" nicht mehr zocken.

und natürlich bestimmt der geldbeutel das spiel immer mit. :evillol:

mfg

Danke für die Information :)
Ich dachte nur das es mit dieser CPU ein Zeitpunkt gekommen wäre, um umzusteigen auf "moderne" Hardware.
 
[wege]mini schrieb:
die range ist sooooo sinnlos lang, dass ich immer von minimum settings ausgehe....da wird gute 2013 cpu hardware noch locker 2-3 jahre durchhalten, wenn man die gpu regelmäßig gewechselt hat.

den wirklichen "impact" des core wars erwarte ich am gaming markt erst in ca. 2 jahren.

frühestens dann kann man mit unter 8 cores wirklich "gar" nicht mehr zocken.

und natürlich bestimmt der geldbeutel das spiel immer mit. :evillol:

mfg

Naja vielleicht auch schon mit Xbox Scarlet und PS5+ ;-) ca. ende 2020.
 
  • Gefällt mir
Reaktionen: Gortha und [wege]mini
merlin123 schrieb:
auf "moderne" Hardware.

lass dir mal noch ein bisschen zeit.....

moderne hardware ist für deine verhältnisse ddr5, zen4, big navi und das alles 2022 auch für jeden geldbeutel.

wenn du mehr geld hast /zurück legst , kannst du es eher kaufen. vor 2021 würde ich damit aber nicht rechnen.

damit hast du dann aber einen wirklichen big bang (oder dem dann intel produkt), den du auch wirklich real überall immer siehst.

waren dann ja aber auch fast 9 jahre.... :stock:

zum glück springen die core süchtigen software heinis seit 2 jahren vor glück im kreis und scharren mit den hufen, dass die geilen teile endlich gebaut werden (können).

bei games dauert es halt manchmal länger. ich war ja schon dankbar, dass multi core irgend wann im BS einzug hielt und richtig gut skaklieren games ja immer noch nicht mit mehr freds.....

wird schon, die neuen konsoen können auf jeden fall mehr als 8 freds :bussi:

mfg
 
  • Gefällt mir
Reaktionen: Mcr-King
Steini1990 schrieb:
Um die aber voll auszulasten braucht man wohl eine 2080Ti.
Denn in WQHD ist der 8600K bei AC Odyssey definitiv nicht ausgelastet. Da limitiert bei rund 60FPS vorher meine Grafikkarte. Die CPU ist da noch weit weg von Volllast.
da kann aber der Prozessor nix für wenn du so ne gurken gpu hast und/oder deine Settings so stark anziehst.

locker die Settings und stell die wolken auf low und du hast mit der 2080ti 100 fps in odyssey. meine 1080 kriegt 55-90fps auf die kette je nach gebiet und tageszeit und action. das sollte die 2080ti ja locker toppen können.

also. die CPU kann nix für deine überzogenen settings

Bitte hört endlich auf zu behaupten in wqhd bringt eine schnelle cpu nix.

das ist einfach totaler käse!
 
  • Gefällt mir
Reaktionen: Mcr-King und Gortha
merlin123 schrieb:
Die Graka habe ich nichtmal ein Jahr! und diese wurde mir hier empfohlen.
Die RX 580 reicht für Full HD auch noch gut aus, wenn nicht der neuste AAA-Shit gespielt wird und nicht alle Regler ganz rechts stehen müssen bei den Grafikeinstellungen.
 
  • Gefällt mir
Reaktionen: Smartbomb, Celinna, Mcr-King und eine weitere Person
DonSerious schrieb:
Gegen die Masse an AMD Werbung in diesem Forum sind die paar „Intel-Werber“ Waisenknaben. Der von der einseitig vertretenen Community geforderte Diskurs funktioniert hier ja nur noch durch Kapitulation.

Wenn plötzlich eine Mehrheit für eine andere Meinung als deine existiert, solltest du vielleicht deine Meinung kritisch hinterfragen, anstatt hier was von Werbung zu schwadronieren. Gibt auch keinen AMD Fanboy Zuchtverein auf CB.
Ich gehe jede Wette ein, dass 70-90% der Ryzen User ehemalige Intel Kunden sind, mich eingeschlossen. Wir haben sicher nicht aus Selbsthass den Hersteller gewechselt.
 
  • Gefällt mir
Reaktionen: Alpha.Male, Smartbomb, ghecko und 12 andere
Hayda Ministral schrieb:
Wann genau wurden Intels CPUs zum Topic dieses Threads?
Schon seit der Artikel den 3500X mit einer Intel CPU vergleicht... Und die Aussage kam dass bei Intel 65W auch 65W heißen würden und bei AMD nicht
 
  • Gefällt mir
Reaktionen: Thraker, Smartbomb, Celinna und eine weitere Person
Sykehouse schrieb:
Die RX 580 reicht für Full HD auch noch gut aus, wenn nicht der neuste AAA-Shit gespielt wird und nicht alle Regler ganz rechts stehen müssen bei den Grafikeinstellungen.

Den einzigen neuen "Shit" den ich spielen würde wäre (A Plague Tale, Destiny 2, The Dark Pictures Anthology, Maid of sker,Balir witch, MK 11 und beyond blue). Ich kenne mich mit spiele kaum aus, also was ich für Anforderungen haben muss. Da denke ich immer wenn da ein i5 8XXX steht das meine CPU eh schon zu alt ist.
 
  • Gefällt mir
Reaktionen: Mcr-King
habichtfreak schrieb:
TDP ist bei Intel der Maximalverbrauch.

Nein. Intel definiert die TDP als durchschnittliche Leistungsaufnahme, die der Prozessor beim Betrieb auf Basisfrequenz ableitet.

Software-Tools sind eine relativ unverlässliche Quelle für Verbrauchswerte und die Werte können sich auch noch je nach Board deutlich unterscheiden.

Wenn wer über 153W beim Ryzen im Leerlauf misst, ist die Person entweder unfähig zu messen oder aber die Messmethode ist ungeeignet.

Ein 3600 verbraucht im Idle rund 55W und ein 9400F rund 42W als Gesamtsystem. Ryzen alleine verbraucht so lächerlich wenig im Idle, weil die Ryzen 3000 da mit der Spannung auf bis zu 0,2V runtergehen. Nur die CPU an sich verbraucht da weniger als 10W im Idle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker, Reinheitsgebot, Smartbomb und 4 andere
Chillaholic schrieb:
Nein ganz sicher nicht, Battlefield, Assassins Creed etc. gibt genug Titel die über 6 Threads nutzen.

Das die Spiele möglicherweise einen Vorteil aus mehr als 6 Threads ziehen können bedeutet aber nicht gleichzeitig das 6 Threads zu wenig sind um in diesen Spielen Spaß zu haben.

Ich persönlich würde mir eine solche CPU heutzutage aber auch nicht mehr kaufen.. das liegt allerdings auch daran das ich nicht auf jeden Euro gucken muss und ich schon vor knapp 10 Jahren 12 Threads im Rechner hatte..
 
  • Gefällt mir
Reaktionen: Mcr-King

bin ja gespannt wie sich der 3500X schlagen wird

beim 8600k vs 8700k weiß ich nicht ob es am höheren Takt liegt oder an den weiteren Threads. der i7 hat ja zusätzlich noch den größeren Cache
 
SKu schrieb:
Ein 3600 verbraucht im Idle rund 55W und ein 9400F rund 42W als Gesamtsystem. Ryzen alleine verbraucht so lächerlich wenig im Idle, weil die Ryzen 3000 da mit der Spannung auf bis zu 0,2V runtergehen. Nur die CPU an sich verbraucht da weniger als 10W im Idle.
X570 Board frisst ~10W mehr im Idle als die B450/X470 Boards. Dazu noch satte 15W von der GPU (2080Ti) im Idle.
Wenn man zB mit dem B450 und 1050Ti (5Watt im Idle) unterwegs ist, sind das insgesamt 20W weniger im Idle, also 35W.
edit: Hattest du Ryzen Master an (oder im Hintergrund), kommen weitere ~7Watt dazu. Ryzen Master war nicht aktiv während der CB Test.
 
Zwirbelkatz schrieb:
Während der i5 9400f für Gamer die bessere CPU sein dürfte,
Wieso das?
Jim Panze schrieb:
Weil der eine höhere SC Leistung hat
Das wurde ja jetzt schon ein paar mal widerlegt aber ich mache auch nochmal mit: https://www.techspot.com/article/1876-4ghz-ryzen-3rd-gen-vs-core-i9/
Taxxor schrieb:
Und warum ist ein 9900K mit seinen 4.7-5.0GHz durchschnittlichem Ingame Boost dann nicht sehr viel weiter über einem 3700X mit nur 4.2-4.3GHz Boost?
Der Cache von AMD fängt einiges auf, aber der 9900K ist mit gleichem RAM schon eine Ecke vor dem Ryzen. So weit on 10% Unterschied ist man da nicht. Trotzdem ist der 3700X das rundere Produkt mit der besseren Plattform
Gortha schrieb:
Ööööh doch schon. Schau mal in den Link hier oben rein. Der Unterschied bei gleichem Takt ist quasi weg.
 
bei einem attraktiven preis, wäre das eine interessante cpu für ein budget gaming system.
nicht jeder braucht einen 8-core mit 5700xt graka und manchen ist das was die apu's leisten wiederrum zuwenig.

sicherlich nicht besonders zukunfstssicher - aber wann war ein budget system das den schon?
 
habichtfreak schrieb:
29W und dein Ryzen? 135W hat mein Messgerät angezeigt. Ich lass die Werte einfach mal wirken ;)

klingt alles sehr glaubwürdig :lol:


TDP ist bei Intel der Maximalverbrauch.

deshalb wandelt der 9900k genügsame 95w um
pack mal dein dickes märchenbuch wieder ein ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral und Floppes
dr. lele schrieb:
Ööööh doch schon. Schau mal in den Link hier oben rein. Der Unterschied bei gleichem Takt ist quasi weg.

Da beide mit Flare-X 3200CL14 XMP getestet wurden ist es ein recht faires Duell, wo in Spielen der 9900k etwas vorne liegt... wobei die Games ggf zu der Intellastigen Fraktion gehören, darauf habe ich jetzt nicht geachtet.

Was du allerdings außer acht lässt, ist dass wenn man den RAM auf 3400, 3600, 3733 oder 3800MT erhöht - bei AMD sowie Intel - und man den Infinity Fabric beim Ryzen 1:1 mit hochzieht, sich die Ergebnisse stärker zugunsten der Ryzen3000 verändern.

Desweiteren sind durch neuere AGESAs die Leistungen beim RAM etwas gestiegen.
Der Test ist immerhin vom 15.Juli .... 1 Woche nach Release.

Es wurde zu diesem Zeitpunkt eine noch unrund laufenden Plattform mit einer absolut durchoptimierten vergleichen. Selbst mit statischen 4 GHz und XMP3200CL14 für die Kontrahenten.

Jetzt, mit neurerem Chipsatztreiber, AGESA kann das Ergebnis etwas anders ausschauen.
 
  • Gefällt mir
Reaktionen: Thraker und LukS
mkbftw schrieb:
Ich finde 140€ etwas teuer, da nehm ich lieber den 2600 für 120€ oder 2700x für 190€ im abverkauf.
50€ mehr für 8c/16t und vielleicht 10% weniger ipc sollte man ausgeben.
Oder eben 20€ weniger aber dafür mit SMT und vielleicht 15% weniger IPC.
In dem Preissegment kommt es doch eh nicht auf den letzen frame an.

es geht hier ja nicht unbedingt um das jetzt und hier, sondern um die nächsten Monate wo der 2600er sicherlich eingestampft wird. Aktuell gesehen gebe ich dir ja Recht, aber wie hier auch geschrieben wurde, geht es viel mehr um die Runde Produktpalette sofern der 2600er wegfällt.

Komisch ist nur , das es beim Ryzen 2000er diesen Zwischenschritt in Form eines 6-Kerners ohne Multithreading nicht gab und hier die Lücke vom Ryzen 2400G auf Ryzen 2600 nicht geschlossen wurde. Aber irgendwann ist immer das erst mal !

Ich persönlich hätte mich über eine 6-Kern APU mehr gefreut ( z.b. Ryzen 3500G oder ähnliches ).
 
Zurück
Oben