News AMD Ryzen 3000: AGESA 1.0.0.4 mit neuen Features im November

oemmes schrieb:
In 3-4 Jahren, wenn die Games und noch mehr Anwendungen mehr Kerne unterstützen, wirst du mit nem 3700x nen 9900KS zur Lachpille machen.
In 3 Jahren? Die Leute brauchen die Performance heute und nicht in 2-3 Jahren.
Was AMD auch mal verbessern sollte ist die Leistungsaufnahme bei 1 Thread Last, welcher 14% mehr Aufnahme hat, als ein 9900K. AMD muss mit TSMC mehr zusammenarbeiten wie Nvidia, damit das Ding auch mehr Takten kann.

Btw
Was auch sehr kurios ist, ist, das bei meinem Asus B450-i Strix Mainboard das P States OC entfernt wurde seit den neuesten Bios Versionen LOL
 
muzafferamg58 schrieb:
Was AMD auch mal verbessern sollte ist die Leistungsaufnahme bei 1 Thread Last, welcher 14% mehr Aufnahme hat, als ein 9900K.
Naja wir haben ja hier auf CB nur einen Gesamtsystem Verbrauch, Das X570 Board schluckt schon mal recht viel, dieser Unterschied ist bei 1 Thread Last dann natürlich prominenter.
 
  • Gefällt mir
Reaktionen: derSafran, SVΞN und Luxmanl525
Hallo zusammen,

@ muzafferamg58

muzafferamg58 schrieb:
Was AMD auch mal verbessern sollte ist die Leistungsaufnahme bei 1 Thread Last, welcher 14% mehr Aufnahme hat

Der Stromverbrauch von Ryzen 3000 ist essentiell vom Chipsatz des Boards abhängig. Denn gerade bei Boards mit X570 Chipsatz ist aufgrund PCI-E 4.0 ein erhöhter Stromverbrauch in Höhe von ca. 15 - 17 Watt immer intus. Abhängig auch davon, wieviele Lanes in Anspruch genommen werden.

Der von dir aufgezeigte erhöhte Stromverbrauch von Ryzen 3000 ist also nicht alleinig Ryzen 3000 Anzulasten.

So long....
 
  • Gefällt mir
Reaktionen: danyundsahne und hungerham
Ich freue mich und bin dankbar für jede Verbesserung.

Grüsse
 
Luxmanl525 schrieb:
Denn gerade bei Boards mit X570 Chipsatz ist aufgrund PCI-E 4.0 ein erhöhter Stromverbrauch in Höhe von ca. 15 - 17 Watt immer intus.
Ist das nicht eher was der Chipsatz maximal verbraucht? Also der erhöhte Verbrauch im Vergleich zu X470 Boards oder Intel Boards ist dann das abzüglich des X470 Verbrauchs, 5-6W denke ich mal. Aber bei einem 1T Verbrauch von ca 50W für einen Ryzen 3000 sind 5-6W eben schon ca die besagten 14%.
 
  • Gefällt mir
Reaktionen: hungerham
oemmes schrieb:
Ich stelle mal ne gewagte Theorie auf:
7nm optimiert, sprich Ryzen 3, wird das Ende für High-End CPUs sein - 5nm ist nur noch für Smartphones oder so ein Zeug einsetzbar bei der Thermik auf der minimalen Fläche. Oder du mußt in die CPUs ne Kühlung einabauen oder sonstwas.

Halte ich gegen. Die nächste Evolution werden mMn gestapelte Chips. Die absolute Transistorgröße rückt damit in den Hintergrund, weil man Fläche nicht mehr zwingend durch Chipgröße, sondern durch Chiphöhe erkauft. AMD geht den Zwischenschritt über MCM - Intel wohl nicht. Zumindest nicht im Clientgeschäft.
Weiterhin sehe ich durch das BigLittle Prinzip, was man im Smartphone Bereich ja seit Jahren schon nutzt sehr sehr viel Potential zur Leistungssteigerung.

Schon mal nen 64C Epyc unter Vollast gesehen? Das Ding säuft 200W und mehr -> selbst ein human großer 0815 Kühler mit nem Silent Lüfter hält das Teil sozusagen wie "handwarm". Du verbrennst dir nicht die Finger bei ~50-55°C.
MT CPU Breite durch viele viel Threads, die niedrig genug takten um schweine effizienz zu sein ist absolut nicht das Problem... Das Problem ist der Leistungsbedarf in der Höhe (bspw. bei Games oder bei so ziemlich jeglichem kurzen Peak im Alltag) -> 5GHz machen es einfach doppelt so schnell wie 2,5GHz bei gleicher Technik.

MMn geht die Zukunft hier also zu einem Layer an vielen Cores für viel MT -> sehr geringer Takt, sehr hohe Effizienz. Und oben drauf gibts ein paar wenige Hochtakt (Speed) Cores, die die Peaks abfedern. Gestapelt oben drauf. Fläche ist eh da. Hier kann man also gut verteilen.

Luxmanl525 schrieb:
Wohingegen Sicherheitslücken, die zudem dann noch teils unter den Tisch Fallen gelassen wurden mit allen Mitteln regelrecht, eine ganz andere Nummer sind.

Sicherheitslücken bei der CPU ist aber auch wieder nur absolut einseitig betrachtet. Wer sich an den Sicherheitslücken im Hardwarebereich aufhängt müsste ein noch viel größeres Fass bei der Software auf machen.
Setz dir mal ein Abo für die Securityhinweise in Sachen Linux/Windows Kernelpatches. Da wirst du bei Linux quasi täglich, bei Microsoft Patchday bedingt im Monatstakt fast schon zugespammt mit Meldungen über Sicherheitslücken.

Das taugt nicht als Argument. Vor allem, nem Zeroday Exploit Käufer ist es scheiß egal, ob das jetzt ein Hardware, Software, NSA/Geheimdienst oder sonstwas Problem ist -> der hat das Mittel -> bist du zur falschen Zeit am falschen Ort, bist du Mode. Gegen Sicherheitslücken schützt absolut nichts. Kein OpenSource, kein Kauf von Hardware/Software bestimmter Hersteller, kein Schlangenöl, absolut nichts. Redet euch das mal nicht zu schön...

(Nein, das ist keine Rechtfertigung über die CPU Lücken bei Intel, ganz im Gegenteil - nur löst sich das Problem mit einer CPU nicht, wo keine Lücken bisher ausgenutzt werden könnten)
 
  • Gefällt mir
Reaktionen: TheGreatMM, Smartbomb und oemmes
Luxmanl525 schrieb:
Der Stromverbrauch von Ryzen 3000 ist essentiell vom Chipsatz des Boards abhängig. Denn gerade bei Boards mit X570 Chipsatz ist aufgrund PCI-E 4.0 ein erhöhter Stromverbrauch in Höhe von ca. 15 - 17 Watt immer intus. Abhängig auch davon, wieviele Lanes in Anspruch genommen werden.

Der von dir aufgezeigte erhöhte Stromverbrauch von Ryzen 3000 ist also nicht alleinig Ryzen 3000 Anzulasten.

So long....
Mir als Kunde ist es egal, wer im Schluss dafür traegt, dass das Ding mehr Aufnahme hat, das was Zaehlt ist das Ergebnis. Sogar wenn ich diese paar Watt abziehe ist es laecherlich, dass da ein 14nm Prozess mithaelt, dann hat TSMC in meinen Augen genauso versagt.
 
Hallo zusammen,

@ Taxxor
Taxxor schrieb:
Ist das nicht eher was der Chipsatz maximal verbraucht?

Klar. Ich hatte ja nicht umsonst die Bemerkung getätigt:

Luxmanl525 schrieb:
Abhängig auch davon, wieviele Lanes in Anspruch genommen werden.
@ fdsonne

fdsonne schrieb:
Sicherheitslücken bei der CPU ist aber auch wieder nur absolut einseitig betrachtet.

Natürlich. Du mußt meine Darlegung jedoch im entsprechenden Kontext Respektive der Einlassung der besagten Person Sehen.

@ muzafferamg58

muzafferamg58 schrieb:
Sogar wenn ich diese paar Watt abziehe ist es laecherlich, dass da ein 14nm Prozess mithaelt, dann hat TSMC in meinen Augen genauso versagt.

Dann solltest du dich aber tatsächlich auch auf den Verantwortlichen beziehen.

@ Taxxor
Taxxor schrieb:
Okay, ich habe es so gelesen, dass X570 einen Mehrverbrauch von 15-17W gegenüber X470 hätte.

Kein Problem, ich überlese auch manchmal Dinge, die eigentlich in den Kontext gehören. Kommt halt vor. Solange man anständig miteinander Redet, sich austauscht, ist das alles in Ordnung.

So long....
 
Luxmanl525 schrieb:
Klar. Ich hatte ja nicht umsonst die Bemerkung getätigt:
Okay, ich habe es so gelesen, dass X570 einen Mehrverbrauch von 15-17W gegenüber X470 hätte.
Ergänzung ()

muzafferamg58 schrieb:
Mir als Kunde ist es egal, wer im Schluss dafür traegt, dass das Ding mehr Aufnahme hat, das was Zaehlt ist das Ergebnis.
Das Mehr an Aufnahme hat aber ja eben nicht "das Ding" sondern das gesamte System. Wenn du einen Ryzen 3000 auf ein X470 Board packst, hast du das nicht.

muzafferamg58 schrieb:
Sogar wenn ich diese paar Watt abziehe ist es laecherlich, dass da ein 14nm Prozess mithaelt, dann hat TSMC in meinen Augen genauso versagt.
Das hat nichts mit TSMC zu tun sondern liegt schlicht am Design der CPU, durch den 14nm I/O Chip hat man schon mal sowieso einen konstanten Grundverbrauch, der auf den des 7nm Chiplets drauf kommt. Und das Infinity Fabric, welches die beiden Chips verbindet arbeitet auch nicht mit Luft und Liebe.

Die CPUs sind halt komplett auf Multicore ausgelegt, der Verbrauch bei wirklicher 1 Thread Last ist auch sowieso idR nebensächlich, denn wann ist heute schon mal nur ein einziger Thread zu 100% belastet?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnVescoya, zentausend, oemmes und eine weitere Person
Hallo zusammen,

@ Taxxor

Taxxor schrieb:
denn wann ist heute schon mal nur ein einziger Thread zu 100% belastet?

Nicht nur Heute. Schon bei CPU`s wie seinerzeit einem Core 2 Duo schafften es nicht einmal Spiele wie Crysis, beide Kerne voll Auszulasten. So etwas kann man höchstens mit Anwendungen wie Prime erreichen, die dazu bevorzugt dafür da sind, Temperaturen als auch im Besonderen die Stabilität eines Systems zu Testen.

Gibt noch die ein oder andere Videoanwendung Respektive Codec. Das war es aber dann schon zum Großteil. Bei einem normalen Nutzer hast du sowas niemals, na ja, es sei denn, durch einen fehlerhaften Patch für Windows 10 ;).

So long....
 
SV3N schrieb:
Dann bist du doch besser bei einem 9900K aufgehoben, denn das ist nicht der Weg den AMD eingeschlagen hat.

Selbst mit PBO und Enhancements ist ein Ryzen 3000 noch verhältnismäßig nah dran an der TDP. Mit Default Settings sind die CPUs quasi auf ihre TDP gedeckelt.

Wer Pedal to the Metal will, greift zum 9900K/9900KS, muss dann bei 5 GHz all Core aber auch mit 200 Watt CPU only leben. Das sind natürlich trotzdem geile CPUs.

Mein 3800X genehmigt sie mit Default Settings allerdings 90 bis 105 Watt und läuft bei WQHD und Ultra Settings mit 3-5 Prozent weniger fps durchs Ziel. Noch besser sieht’s beim 3700X aus.

AMD und Intel verfolgen hier halt ganz andere Ansätze. Da ist doch für jeden die richtige CPU dabei.
Naja je nach Grafikkarte kannst mitm 3700x / 3800x / 3900x auch deutlich unter 1% liegen.

Hab 9900k und 3900x hier stehen und mit einer 1080ti auf wqhd ist der unterschied in den meisten spielen irgendwo bei 0,3% von einigen ausreißern abgesehen. Mit schwächeren Karten ist es fast nicht merklich.

Hab leider keine 2080Ti hier aber mit der könnten es vllt. 3-5% werden...
 
  • Gefällt mir
Reaktionen: .fF und oemmes
Ich warte lieber noch ein paar Monate, der ganze CPU-Markt ist mir zu unübersichtlich momentan. 🤣
 
oemmes schrieb:
Die dich dann natürlich in die Steinzeit zurück werfen...... :evillol: S/W-Film sozusagen.....
Jo, ich meine wenn du mit 3% weniger dann von 180 auf 174 Frames droppst aber dein Bildschirm nur 165hz macht ist das wirklich tiefstes Mittelalter :D

Da kann ich die Inquisition durch diverse Fanbois absolut nachvollziehen.

Aber ich kann auf die 1 oder 2 Frames die mir mit der 1080ti fehlen gerne verzichten...

Nicht dass der 9900k kein guter Prozessor ist aber mein 3900x zieht einfach weniger Strom und da ich immer irgendwas nebenher mache und auch mit der Maschine Videos decode wenn ich nicht gerade spiele einfach die bessere Wahl.

Der 9900k wird nur noch für Spezialarbeite genutzt.
 
  • Gefällt mir
Reaktionen: .fF, Smartbomb, Cyberbernd und eine weitere Person
Kenjiii schrieb:
Ich warte lieber noch ein paar Monate, der ganze CPU-Markt ist mir zu unübersichtlich momentan
Ich garantiere dir eins....die nächsten Jahre werden noch unübersichtlicher. ;)
Intel muss liefern, AMD hat sich bis nächstes Jahr ne Marktposition erarbeitet, die sie dazu zwingt. Zen 3 (ich bin ja lernfähig) kommt im September 2020 - Intel bis dahin auch mit irgendwas......
Aus dem Teufelskreis gibt es kein entkommen. ;)
 
  • Gefällt mir
Reaktionen: Smartbomb, Kenjiii und Luxmanl525
QuasarAI schrieb:
Kann kaum den 9900KS abwarten. Dieses AMD Zeug ist noch lange nicht marktreif.
Erinnert mich immer wieder warum ich nie wieder AMD haben wollte.
Und wieder einer weniger //auf Ignore :daumen:
 
  • Gefällt mir
Reaktionen: Thraker, VoAlgdH, Busterk und 6 andere
SV3N schrieb:
Also ich meine mich zu erinnern, dass 3600, 3700X und 3900X bereits zum Release auf den damaligen Mainboards ganz gut funktioniert und hier auf ComputerBase und weltweit Empfehlungen abgeräumt haben. ;)

Ich weiß nicht, wie man die Produktpflege über BIOS-Updates und neue AGESA-Codes bemängeln kann.

Das denke ich auch. Der entscheidende Punkt ist doch stabiler Betrieb ab dem Releasetermin, die letzten paar Prozent Leistungssteigerung kommen dann per BIOS Update nach. Passt!
 
  • Gefällt mir
Reaktionen: TBrandes, iron-man, Luxmanl525 und eine weitere Person
Hallo zusammen,

@ oemmes

oemmes schrieb:
Intel muss liefern

Das wird so schnell nicht Passieren. Bis 2021 hat AMD schön Zeit, Markanteile zu Erhöhen, wenn sie in dem Tempo und der Güteklasse weiter machen.

oemmes schrieb:
Aus dem Teufelskreis gibt es kein entkommen.

Ehrlich gesagt hoffe ich das auch. Denn gerade für uns Verbraucher wäre alles andere wieder ein Rückschritt. Und aus meiner Sicht sogar auch für die Firmen selbst auch. Denn man sieht doch, was funktionierender Wettbewerb ausmachen kann. Intel muß sich gerade deswegen jetzt wieder auf die Hinterbeine Stellen.

Wenn AMD nicht weitgehend auf Augenhöhe, teils sogar darüber, gekommen wäre so schnell, wäre Intel nach wie vor so behäbig wie in den letzten 10 Jahren seit Erscheinen der Core 2 Duo`s. Wir Verbraucher können nur Hoffen, daß diese Wettbewerbssituation noch lange so bleibt. Und persönlich finde ich, daß sich AMD das jetzt auch mal verdient hat, weil sie aus ihren Fehlern gelernt haben, jedenfalls weitestgehend.

So long....
 
  • Gefällt mir
Reaktionen: oemmes
Luxmanl525 schrieb:
Wir Verbraucher können nur Hoffen, daß dieses Wettbewerbssituation noch lange so bleibt.
Ich hoffe, dass sie das auch bei den GPUs schaffen.

Ich verstehe diese Welt auch irgendwie nicht mehr.... Bei dem nvidia Dreck regt sich kein Mensch auf. Was selbst die Custom-Designs an Leistung ab Werk liefern ist der Hohn. Ohne mit dem Burner da Mehrleistung rauszuholen - bis an die ab Werk eh restriktiven Grenzen - rechtfertigt nicht mal den Preis für den Karton.

Jetzt gibt es endlich mal Alternativen und die ganze Welt regt sich über 50 MHz auf, weil es ja auf dem Karton steht oder auf ner Lokusrolle.......

Ich werd zu alt für den Scheiß....

Ich kauf mir jetzt nen Mac und nen iphone und mach nen Termin fürs Probeliegen.... :smokin:
 
  • Gefällt mir
Reaktionen: iron-man und Luxmanl525
Zurück
Oben