Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Ryzen 3 4350G im Test: Die kleinste Zen-2-APU mit größter Effizienzsteigerung
Wie kommen dann die krass schlechten 0,2% fps zustande, wenn doch die avg fps halbwegs ok sind?HaZweiOh schrieb:Genauso läuft das: CPU und GPU teilen die TDP mittlerweile ziemlich optimal untereinander auf.
Das wurde mit den verschiedenen APU-Generationen immer weiter optimiert.
Treiber oder TDP Verteilungsproblem? Oder ist 0,2% eine zu scharfe Messung und es wären wohl besser 1% bzw welche fps Rate herrscht mindestens zu 99% der Zeit (ich weiß, nicht wissenschatftlich korrekt gerade ausgedrückt)?
@Volker Oh, schade!
Innocience
Lieutenant
- Registriert
- Okt. 2020
- Beiträge
- 626
Miserable IGPU 0.2% Performance für F1.
Gibt's da Probleme mit dem Treiber?
Hab bei Forza Horizon 3 mit meinem 4800U ähnliche Stotterer.
Weiß da jemand mehr?
Gibt's da Probleme mit dem Treiber?
Hab bei Forza Horizon 3 mit meinem 4800U ähnliche Stotterer.
Weiß da jemand mehr?
Botcruscher
Captain
- Registriert
- Aug. 2005
- Beiträge
- 3.934
Pfff. Ein 3500U ist ja so abartig schlecht. Die 4000er tummeln sich inzwischen bei 350€. Selbst die 6K 4000er fangen schon bei 420€ an. Wer nicht Hardcore auf die IGP angewiesen ist macht mit der CPU hier was falsch.mcsteph schrieb:Mit dem Notebook möchte ich nicht arbeiten.
Sieh es mal praktisch. Entweder, es ist dir egal (so geht es den meisten Käufern), oder du willst es haben.Raucherdackel! schrieb:Das bedeutet mit einer 65W CPU kannst du offiziell NICHT 35W fahren.
Dann suchst du dir ein Board aus, wo du die cTDP in feingranular 1-W-Schritten einstellen kannst. Das ist eine Sache des Mainboards und ja, es funktioniert. Wenn bei deinem Board eine vorhandene BIOS-Funktion den Rechner nicht starten lässt, ist das ein Fehler!
Wenn der Board-Hersteller diese Funktion nicht unterstützen möchte, darf er die Option im BIOS gar nicht anzeigen. Je nach Chip zeigt ein BIOS auch verschiedene Optionen an.
Hier liegt ein ganzer Stapel alter Grafikkarten. Einige davon aus der Güteklasse "Hauptsache ein Bild!", die ich kostenlos aus umgerüsteten PCs übernommen habe. Ob ich jemals schaffe, sie zu verbauen, weiß ich nicht.Wilhelm14 schrieb:Grafik, falls man mal was testen will oder den Rechner ausmustert
Frag mal MSI, wie man das macht. Vielleicht hätten das manche Hersteller auch tun sollen .guggi4 schrieb:noch die 16mb Beschränkung,
(Antwort: "einfach 32 MB in Form von 2x 16 MB verbauen").
Zuletzt bearbeitet:
iNFECTED_pHILZ
Commodore
- Registriert
- Dez. 2008
- Beiträge
- 4.273
Kritik gibt's da zurecht für.KlaraElfer schrieb:Kundenfreundlich? Erst große Versprechen machen, man müsse nie sein Board wechseln und dann vor kurzem nicht mal mehr das halbe Versprechen einlösen wollen und B450/X470 für Zen 3 sperren.
Und da wundert es manchen wirklich, dass es da Kritik gibt?
Bei Intel haste 2 Generationen pro Sockel, bei AMD haste einmal 3 gehabt, finde ich jetzt nichts besonderes um ehrlich zu sein.
Der Vertrieb hatte damals versprochen bis einschließlich 2020 auf AM4 zu setzen. Dass das von vielen so verstanden wurde, dass sie mit ihrem b450 Brett volle CPU Unterstützung bis kurz vor 2021 haben hätte man an der Stelle natürlich richtig Stellen können.
Denn gemeint war halt nur , was eben auch gesagt wurde. Nicht mehr nicht weniger.
Ich hatte damals schon Bedenken geäußert und hab es eher als eine Rückwärts-Kompatibilität gesehen, also dass mit einem 2020 AM4 Board die alten und neuen Prozessoren laufen, aber nicht zwingend mit jedem 2018er AM4 Board die neuen CPUs.
So ists dann auch gekommen.
Und so wird auch ein Schuh draus. Der Kunde hat mit den Boards jetzt ne riesen Auswahl und kann auch mit ner alten gebrauchten etwas lauffähiges basteln.. Und manch einer tauscht halt seibeb 3300x gegen ein 5800x..Was genau da jetzt individuell Sinn macht ist ja wumpe, diese Wahl hat man bei Intel nur sehr selten gehabt. S775 war so ein Beispiel wo es gut ging und auch da gab's viele Inkompatibiläten.
Daher ist die Sockel Situation zwar nicht perfekt, dennoch glasklar
AMD>Intel für uns interessiere Leser
AMD=Intel für den Dau der einfach das aktuelle kauft und das Ding 8 Jahre nicht mehr öffnet
Wie gesagt, Kritik dahingehend dass man das hätte klarstellen können.. Gerne.
Meckern das hier ein Versprechen nicht eingehalten wurde.. Definitiv nein.
Und in die Kerbe haut Volkers Hetze (anders kann man sich die ständigen Seitenhiebe nicht erklären).
Und es wird nicht richtiger wenn man es einfach häufig wiederholt
Zuletzt bearbeitet:
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Naja die apus werden wohl auch schon hart vom Speicher gebremst. Fast 2 Tflops sind einfach zu viel für runde 60GB Bandbreite .
Da aber die neuen apus preislich bei über 150€ liegen für mich eher uninteressant . Habe hier einen 3400 gebraucht um 80€ geschossen. Bestes P/L zumal ja auch wieder ein neues Board nötig werden würde.
Da aber die neuen apus preislich bei über 150€ liegen für mich eher uninteressant . Habe hier einen 3400 gebraucht um 80€ geschossen. Bestes P/L zumal ja auch wieder ein neues Board nötig werden würde.
Raucherdackel!
Banned
- Registriert
- Jan. 2014
- Beiträge
- 3.266
@Bigfoot29
Hier sieht man sehr schön, ab 8,1MB zurückflashen nicht (so einfach) möglich. Das hat aber mit der 16MB-Problematik weniger zu tun.
@guggi4 : Danke. Ich war mir nicht mehr sicher, ob Summit Ridge diese Beschränkung auch hat oder nicht.
Hier sieht man sehr schön, ab 8,1MB zurückflashen nicht (so einfach) möglich. Das hat aber mit der 16MB-Problematik weniger zu tun.
@guggi4 : Danke. Ich war mir nicht mehr sicher, ob Summit Ridge diese Beschränkung auch hat oder nicht.
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Naja an die 1030 gt kommt sie ran je nach game, aber die 1050 ist noch um einiges weiter weg.Nero2019 schrieb:Mich interessiert eher wieweit die GPU des APUs noch entfernt ist zu einer gtx1050. Die CPU ist sehr stark für 1080p, da hätte die 3400G auch vollkommen ausgereicht.
Vorteil der Apu ist das man mit 16gb speicher zb. in doom alptraum texturen einstellenkann. geht auf der 4gb 1050 nicht.
Somit wenn man ein vram limit provoziert könnte man sogar die balken für den 3400g ausrichten, denke ich mal^^.
roaddog1337
Lieutenant
- Registriert
- Apr. 2017
- Beiträge
- 607
Ich finde die Entwicklung echt positiv.
Habe erst einen Rentner PC mit 2200g zusammengestellt, das ding hatte leider anfangs ziemlich heftige Treiber/Bios-Probleme mit dem GigaByte GA-A320M.
Nun läufts wie ne 1.
Der Ball liegt nun ganz klar bei Intel.
Habe erst einen Rentner PC mit 2200g zusammengestellt, das ding hatte leider anfangs ziemlich heftige Treiber/Bios-Probleme mit dem GigaByte GA-A320M.
Nun läufts wie ne 1.
Der Ball liegt nun ganz klar bei Intel.
@Vitec : Der 3400G ist als Quad auch keine schlechte CPU, wenn der Preis stimmt. Ja, er braucht mehr Strom. Aber unbenutzbar ist er nicht. Bei bei der GPU-Leistung gibt es wenig Fortschritt und auch bei der CPU-Leistung gibts im Alltag wenig zu meckern. Ich habe erst mit dem Gedanken gespielt, den Asrock A300 vom 3400G auf nen 4xxxG zu aktualisieren. Aber als HTPC / kleiner Allrounder wüsste ich nicht, wozu. - Vielleicht später.
Regards, Bigfoot29
Regards, Bigfoot29
Raucherdackel!
Banned
- Registriert
- Jan. 2014
- Beiträge
- 3.266
Wir üben besser mal das zählen.... Ich helf dir sogar:KlaraElfer schrieb:Bei Intel haste 2 Generationen pro Sockel, bei AMD haste einmal 3 gehabt, finde ich jetzt nichts besonderes um ehrlich zu sein.
- Bristol Ridge - 28nm
- Summit Ridge - 14nm
- Pinnacle Ridge - 12nm
- Matisse - 7nm
Anon-525334
Banned
- Registriert
- Dez. 2010
- Beiträge
- 1.478
Das geht gar nicht um die CPU, die Displays und die Tastaturen sind in der Preisklasse ein Graus.Botcruscher schrieb:Pfff. Ein 3500U ist ja so abartig schlecht. Die 4000er tummeln sich inzwischen bei 350€. Selbst die 6K 4000er fangen schon bei 420€ an. Wer nicht Hardcore auf die IGP angewiesen ist macht mit der CPU hier was falsch.
mrcoconut
Lt. Commander
- Registriert
- Apr. 2007
- Beiträge
- 1.962
Zu #29 zitiere ich mal einen Eintrag von mir bezüglich Renoir im Deskmini A300 aus dem Luxx
Hoffe ich konnte helfen.
VG 😀
mrcoconut schrieb:... das Biosupdate von 3.50 auf 3.60s ist vollzogen und ich habe kurz den 3400G, 4350G und 4650G ohne Optimierungen im Cinebench R15 gegeneinander antreten lassen. Ich bin erstaunt wie krass sich der 4350G gegenüber dem 3400G hinsichtlich Stromverbrauch und Temperaturen absetzt. Kann das sein?
Der Stromverbrauch bezieht sich auf das Gesamtsystem, den ich mit einem handelsüblichen Verbrauchsmesser ermittelt habe.
3400G Desktop 10W, CBR15 SC 33 W bei 57 C° 163 Punkte, CBR15 MC 95W bei 70 C° 859 Punkte
4350G Desktop 8W, CBR15 SC 21 W bei 45 C° 185 Punkte, CBR15 MC 55W bei 53 C° 1006 Punkte
4650G Desktop 9W, CBR15 SC 24 W bei 57 C° 194 Punkte, CBR15 MC 87W bei 68 C° 1544 Punkte
Hoffe ich konnte helfen.
VG 😀
eastcoast_pete
Lt. Commander
- Registriert
- Juni 2020
- Beiträge
- 1.669
Danke für den Test, leider blieben einige Aspekte unerwähnt, die gerade für eine APU mit deutlichem HTPC Potential wichtig sind. Z.B., wie gut oder schlecht kann denn der Baby-Renoir Video wiedergeben (4K in HEVC in 10bit mit HDR; kann der das, und wie hart muss die CPU dabei arbeiten?) , wie schlägt er sich beim Streamen etc. Ich weiß natürlich nicht, wozu andere diese APUs einsetzen, aber einen Threadripper ersetzt er auf jeden Fall nicht, und wäre dafür sowieso ein Fehlkauf. Als HTPC mit etwas eSport hingegen vielleicht genau das Richtige, wenn er das kann.
S
Snowi
Gast
der Unzensierte schrieb:Meinen die auch. Lies dich mal hier ein: https://www.computerbase.de/2018-08/cpu-tdp-verbrauch-amd-intel/
Dein Verständnis von TDP deckt sich nicht mit der Definition.
Der Beitrag nimmt genau das auf, was ich meine: Die TDP spiegelt nicht den realen Verbrauch oder die reale thermische Verlustleistung wieder. Wie jemand erwähnte ist es bei AMD anscheinend das 1,35-fache, bei Intel irgendwas anderes.
Für mich ist die TDP ein fester Wert. Also bei AMD ist für mich die eigentliche TDP die Angegebene TDP x 1,35. Warum man das nicht auch so drauf schreibt erschließt sich mir nicht - bei AMD sind die Zahlen anscheinend ja fix.
mrcoconut schrieb:4350G Desktop 8W, CBR15 SC 21 W bei 45 C° 185 Punkte, CBR15 MC 55W bei 53 C° 1006 Punkte
Hoffe ich konnte helfen.
VG 😀
Die Werte lesen sich doch richtig gut. Jetzt fehlt mir nur noch ein passendes Mainboard wie dieses Thin-Mini-ITX-Mainboard von Gigabyte: https://www.computerbase.de/2020-07/gigabyte-ga-imb410tn-3x-hdmi-2x-gigabit-lan-thin-mini-itx/ mit flacher Anschlussleiste und 19V-Buchse und mein Selbstbauprojekt könnte weiter gehen. Das Mainboard aus meinem alten Laptop (Displayschaden), welches ich eigentlich nutzen wollte, hab ich aus Unachtsamkeit geschrottet
Zuletzt bearbeitet:
K
KlaraElfer
Gast
Raucherdackel! schrieb:Bristol Ridge - 28nm
Summit Ridge - 14nm
Pinnacle Ridge - 12nm
Matisse - 7nm
Das stimmt, Bristol Ridge habe ich unterschlagen, da es eher eine nachträgliche OEM Geschichte war, zudem zählte die Generation zu Summit Ridge.
Zuletzt bearbeitet von einem Moderator:
???KlaraElfer schrieb:... Bristol Ridge habe ich unterschlagen, da es eher eine nachträgliche OEM Geschichte war, ...
https://geizhals.de/?cat=cpuamdam4&xf=17236_3~596_Bristol+Ridge~820_AM4
Es sind immer noch 8 boxed Versionen lieferbar. Nix OEM.
Übrigens: Mein ASUS Prime X370-PRO unterstützt alle CPUs von Bristol Ridge bis Matisse. Und das mit einem 16-MB großen BIOS.
Zuletzt bearbeitet:
chithanh
Commodore
- Registriert
- Okt. 2013
- Beiträge
- 4.142
Ich würde eher umgekehrt sagen, viele im Forum hier brauchen eigentlich ECC, aber sie wissen es nicht. ECC ist immer dann wichtig, wenn man sich keine schleichende Datenkorruption leisten kann.cruse schrieb:Bei den meisten hier im Forum die "unbedingt ECC brauchen" würde ich nämlich auch eher sagen, dass sie es wollen.
Ein Dateisystem mit Prüfsummen ergänzt ECC prima. Backups braucht man sowieso. Aber beides ohne ECC hilft auch nicht gegen Speicherfehler, die korrumpierten Dateien gelangen halt auch ins Backup, ohne dass man etwas davon merkt.bad_sign schrieb:Also lieber FS mit Redundanz und natürlich Backups, als nur ECC.
Die meisten ja, aber es gibt durchaus auch Geräte in der 300€-Preisklasse mit annehmbarer Tastatur und IPS-Display. Man darf jetzt natürlich kein Premium erwarten.mcsteph schrieb:Das geht gar nicht um die CPU, die Displays und die Tastaturen sind in der Preisklasse ein Graus.
Nein, Bristol Ridge nutzt Excavator-Kerne. Varianten ohne GPU wurden auch ganz normal verkauft, etwa der Athlon X4 950, der eindeutig kein Summit Ridge war.KlaraElfer schrieb:Das stimmt, Bristol Ridge habe ich unterschlagen, da es eher eine nachträgliche OEM Geschichte war, zudem zählte die Generation zu Summit Ridge.
Wenn man die APUs mitzählt, dann läuft auf AM4
Bristol Ridge (28nm Excavator, GCN3/gfx801)
Summit Ridge (14nm Zen)
Raven Ridge (14nm Zen/Zen+ hybrid, GCN5/gfx902)
Pinnacle Ridge (12nm Zen+)
Raven2 (14nm Zen/Zen+ hybrid, GCN5/gfx909)
Picasso (12nm Zen+, GCN5/gfx902)
Matisse (7nm Zen2)
Renoir (7nm Zen2, GCN5/gfx909)
Matisse Refresh (7nm "N7-DUV")
Vermeer (7nm+ Zen3)
Noch nicht offiziell angekündigt aber auch für AM4 erwartet werden:
Lucienne (7nm+ Zen2, GCN5/gfx909)
Cezanne (7nm+ Zen3, GCN)
möglicherweise noch der Vermeer-Nachfolger Warhol, den es sowohl für AM4 als auch AM5 (mit jeweils unterschiedlichem I/O Chiplet) geben könnte.
Raphael und Rembrandt sind dann AM5.
Ähnliche Themen
- Antworten
- 26
- Aufrufe
- 7.157
- Antworten
- 15
- Aufrufe
- 1.956
- Antworten
- 683
- Aufrufe
- 142.841