Leserartikel 8 Kerne sinnvoll? Ryzen 6000 und RTX 3050 im Test

8 Kerne sinnvoll?
Und was hat der Laptop sonst noch zu bieten?

Nach reiflicher Überlegung war es mal wieder Zeit für einen neueren Laptop. In immer mehr Spielen gerät der hp mit Ryzen 5 3500U immer mehr ins Hintertreffen. Da hilft es auch nicht, dass ich hauptsächlich ältere Spiele zocke, mit der die Vega 8 noch gut zu Rande kam.
Also habe ich schon mal langsam meine Fühler Richtung neuen Laptop ausgestreckt, immer mit der Tatsache im Hinterkopf, das Weihnachten vollkommen ausreicht.
Da wäre der Ryzen 5 drei Jahre alt, was bei meinem Einsatzszenario ein gutes Alter ist.
Es kam dann doch anders. Denn ich hatte ein Lenovo Gerät mit guten Spezifikationen zu einem guten Kurs gefunden. Also habe ich die Chance genutzt und das Gerät bestellt.

Inhaltsangabe


Zu meiner Vorgeschichte

Beim ersten, eigenen Laptop nach mehreren Jahren wurde es noch ein Pentium N3710, mit 17“, HDD und 4 Threads. (Ein Pentium N in 2021 – Sinnvoll oder nicht?) Nach einem Update von 4 auf 8 GB und einer Crucial SSD stand so langsam ein Update ins Haus, welches hp und der Media Markt prompt erfüllten.
Dank hellen 17“ Display war der Asus Laptop kein schlechter Begleiter, doch der neue Ryzen war natürlich ein gravierender Geschwindigkeitsboost.
An das nun kleinere Display mit 15“ musste ich mich gewöhnen, auch das es nicht gerade die hellste Kerze auf der Torte war.
Doch der Ryzen 5 3500U (Lesertest) hat für vieles entschuldigt. Dazu kam, das hp eine schnelle Samsung SSD mit 512 GB verbaute.
Nach zwei Aufrüstungen des RAMs arbeitet das Gerät jetzt mit 32 GB und ist auch dank der noch immer guten vier Kerne kein langsamer Begleiter.
Im Gegenteil, ein Kern wurde über Windows und die msconfig deaktiviert und gewann dadurch einen höheren TDP-Spielraum bei der Vega 8. Denn diese ist das Steckenpferd der Ryzen APU.
Nicht falsch verstehen, Vega ist wahnsinnig gut, im Vergleich zur Konkurrenz und wenn man das Alter im Hinterkopf behält.
Aber, sie braucht Bandbreite und eine Möglichkeit, ihren Takt auszufahren.
Ersteres lässt sich dank maximalen 2.400 MHz auf dem RAM nicht wirklich aufbessern, zweiteres schon, durch die Deaktivierung des vierten Kernes. Nur, selbst mit dem Ryzen Controller (Lesertest) waren GPU-Taktraten jenseits der 900 MHz eher die Ausnahme, als die Regel und bei erzwungenen 1,2 GHz kam es gar zu Abstürzen.
Die Nachfolger APU Ryzen 5 4500U vom User @Karre dreht dann dank des LPDDR4-4.133 Kreise um meine Vega. Der Fertigungsprozess von 7nm hat hier halt auch gewisse Vorteile.


Wie der Zufall so will

Durch Zufall habe ich an einem Samstag dann den besagten Lenovo Laptop bei Geizhals gefunden.
Das Gerät kommt mit einem 16“ Display in 16:10, 350 Candela und 100% sRGB-Abdeckung daher.
Sowie einem Ryzen 7 6800H, der GeForce RTX 3050m, 1x 16GB DDR5-4800 von Samsung und einer Micron SSD mit 512 GB und PCIe 4.0. Preislich lag dieses Angebot, inklusive zweiten 16 GB RAM Riegel, bei 800€.
Gegenüber dem hp Laptop wurde zwar die Kernanzahl, und damit auch die Threads wieder verdoppelt. Aber, in meinem Anwendungsbereich ist das der absolute Overkill.
Windows fühlt sich nicht viel schneller an und Gimp, was bei einigen Berechnungen von 16 Threads profitieren könnte, muss erst noch zeigen, ob das nicht zu viel des Guten ist.


Kommen wir nochmal zu den technischen Details

Es handelt sich um ein Lenovo IdeaPad Gaming 3 16ARH7.
Der Ryzen 7 6800H verfügt über 8 Zen 3+ Kerne, inklusive Hyperthreading.
Angesiedelt ist die APU in der 45W Klasse bei AMD.
Ferner ist die Radeon 680M auf Basis der RDNA2 Architektur mit 12 CUs integriert, was dem Vollausbau in dieser Ryzen Generation entspricht.
Als Arbeitsspeicher kommt ein einzelnes Samsung Modul mit 16GB und einer Geschwindigkeit von 4.800 MHz zum Einsatz.
Für einen direkten Test zwischen Vega 8 und 680M ist das optimal, da beide Geräte so über die gleiche Bandbreite von 38 GB/s verfügen.
Da auch noch ein zweiter, leerer Steckplatz vorhanden ist, erhält der Arbeitsspeicher nach den ersten Tests ein Upgrade auf 32 GB, wobei das zweite Modul von Crucial stammt.
So kann man dann die Radeon und die GeForce besser vergleichen.
Denn, neben der iGPU gibt es noch die kleine RTX 3050 mobile mit 4 GB und max. 65 W TDP.
Als Datengrab kommt eine Micron SSD mit 512 GB und PCIe 4.0 @4x Anbindung zum Einsatz, erweitert durch eine Intel 660p mit ebenfalls 512 GB, aber QLC-Technik. Beide nutzen einen SLC-Cache, verfügen aber über keinen DRAM für die Mappingtabelle (ähnlich einer Inhaltsangabe).
Als Display kommt ein IPS-Panel mit max. 350 cd/m² (laut Hersteller), 16“ im 16:10 Format und einer Auflösung von 1920x1200 Pixeln. Während der unten aufgeführte Ryzen 5 ein 15,6“ Display mit Full HD nutzt, trumpft das neue Panel in der Höhe auf, denn da finden sich 20 mm zusätzlich ein.


Techn. Daten

CPURyzen 5 3500URyzen 7 6800HCore i3 10105
TechnologieZen+ (Picasso)Zen3+ (Rembrandt)Comet Lake
Kerne (Threads)4 (8)8 (16)4 (8)
Takt (Turbo)2,1 GHz (3,7 GHz)3,2 GHz (4,7 GHz)3,7 GHz (4,4 GHz)
L1 Cache384 KB (96 KB pro Kern)512 KB (64 KB pro Kern)256 KB (64 KB pro Kern)
L22 MB4 MB1 MB
L34 MB16 MB6 MB
Fertigung12 nm (verbesserte 14 nm)6 nm14 nm++
TDP15 W45 W65 W
iGPUVega 8Radeon 680MUHD-630
Kerne8 CU12 CU24 EUs
TechnologieVegaRDNA 2GT2
Shader512768192
TaktMax. 1,2 GHzMax. 2,2 GHzMax. 1,1 GHz
DIE Größe210 mm²210 mm²126 mm²
Milliarden Transistoren4,9413,1 (laut GPU-Z)
Speicher32 GB32 GB24 GB (2x8 & 2x4)
TechnologieDDR4DDR5DDR4
Takt2.400 MHz4.800 MHz@2.133 MHz (bis 2.666 MHz)
Bandbreite Dual Channel38,5 GB/s77 GB/s34 GB/s (41,6 GB/s)
GPU-RTX 3050mRadeon RX 6400
TechnologieAmpere (GA107)RDNA 2 (Navi 24)
Fertigung8 nm6 nm
TDP45 W53 W
Kerne12
Shader2048768
GPU-TaktMax. 1,3 GHzMax. 2,3 GHz
Speicher4 GB4 GB
Speicher-Takt1.500 MHz2.000 MHz
Speicherinterface128 Bit64 Bit
Bandbreite192 GB/s128 GB/s*
Milliarden Transistoren8,75,4
DIE Größe200 mm²107 mm²
TDPs kombiniert (CPU+GPU)15 W90 W108 W
*Aufgrund des Infinity Cache liegt die praktische Bandbreite höher, genauere Daten liefert AMD aber nicht. Wenn man sich die Daten der RX 6500 XT (AMD Radeon™ RX 6500 XT Grafikkarte | AMD) anschaut, könnte die effektive Bandbreite bei ca. 200 GB/s liegen.


Details

Rein von den Daten her, ist der Sprung also nicht gerade klein, auch wenn man in alltäglichen Aufgaben nicht viel davon mitbekommt.
Was aber sofort positiv ins Auge fällt, okay, eher ins Gehör ist die angenehmere Geräuschkulisse. Selbst wenn Prime95, Furmark (GeForce) und der 3DMark (iGPU) laufen, wird das System zwar lauter, driftet aber nicht ins hochfrequente ab, wie es noch beim hp Laptop ist.

Auch ist das verbaute IPS eine Augenweide, gegenüber dem alten TN-Panel und es schlägt sich im Vergleich mit einem Super-AMOLED von Samsung auch ganz gut. Letzteres deckt zum sRGB-Farbraum noch den Adobe-RGB-Farbraum komplett ab. Bei der manuellen Helligkeit liegen Lenovo und Samsung gleich auf, mit einem kleinen Vorteil für das Tablet.
Die wesentlich höhere Auflösung des Tablets dagegen vermisse ich persönlich nicht.

Lenovo Ideapad Ryzen 7 RTX Radeon (1).JPG

Hinweis: durch den Moiré Effekt ist eventuell das Raster der Displays leichter zu erkennen

Lenovo Ideapad Ryzen 7 RTX Radeon (2).JPG



Lenovo Ideapad Ryzen 7 RTX Radeon (3).JPG



Lenovo Ideapad Ryzen 7 RTX Radeon (4).JPG



Lenovo Ideapad Ryzen 7 RTX Radeon (6).JPG
Lenovo Ideapad Ryzen 7 RTX Radeon (7).JPG



Bei unterschiedlicher Kamerabelichtung
Lenovo Ideapad Ryzen 7 RTX Radeon (9).JPG



Lenovo Ideapad Ryzen 7 RTX Radeon (10).JPG

Die Tastatur ist die bei uns übliche QWERTZ-Ausführung mit zusätzlichen Ziffernblock und abgesetzten Pfeiltasten. Eine rein bläuliche LED-Beleuchtung lässt sich in zwei Stufen regeln.
Dazu kommt ein angenehmer Druckpunkt und auch akustisch macht diese einen guten Eindruck.
Unterhalb dieser ist ein großes, abschaltbares Touchpad, welches sich angenehm nutzen lässt. Das hp Touchpad fühlt sich beim Gleiten über dieses aber etwas angenehmer an, was aber reine Geschmacks- und Gewohnheitssache ist.

DSC_1576.JPG


Lenovo Ideapad Ryzen 7 RTX Radeon (8).JPG


Lenovo Ideapad Ryzen 7 RTX Radeon (5).JPG


Kommen wir zu den Anschlüssen, diese befinden sich ungünstiger weise hauptsächlich auf der Rückseite. Da wäre der Stromanschluss, ein USB-C, ein RJ-45 für LAN-Kabel sowie ein HDMI-Anschluss. Links und rechts ist jeweils nur ein einzelner USB-A Port verbaut. Einen (Micro)SD-Karten-Leser hat sich Lenovo gespart, ärgerlich, sofern ich nicht die langsame USB 2.0 Geschwindigkeit der Kamera nutzen möchte.

IMG20230912003119.jpg

HDMI -> LAN -> USB-C -> Power Anschluss​


Der Powerknopf ist in der Mitte positioniert, genau zwischen Display und Tastatur. Die LED für das Netzteilkabel dagegen befindet sich hinter dem Display. Eine LED, jeweils Rot und Weiß gibt den Betriebspunkt an: laden/Ladung halten oder geladen.
Da Lenovo eine Schonung des Akkus zulässt, kann die Ladung bei 80% gehalten werden. Um diesen wieder schneller zu befüllen, existiert noch die Funktion Express-Laden.
Die beiden Lüfter sind unter Last, wie bereits erwähnt immer noch ganz angenehm. Und, über die Tastenkombination FN + Q lassen sich drei verschiedene Einstellungen wählen, Flüster-, Auto- und max. Betrieb. Letzterer lässt diese aber nicht dauerhaft mit hohen Drehzahlen arbeiten, sondern setzt auch hier wesentlich tiefer an. Das hat aber den Vorteil, dass die beiden Quirle nicht immer wieder aufdrehen, um gleich darauf abzuschalten (bei hp wäre das z.B. die UEFI-Einstellung „Fan Always on“). Je nach Betriebsart leuchtet der Powerknopf Blau, Weiß oder Rot.

IMG20230909164942 - Kopie.jpg


Sicherheit

Zum Thema Sicherheit muss man hier hervorheben, dass die Micron SSD bereits verschlüsselt ist. Wobei ich mich wieder frage, wo zum Henker der Sicherheitsschlüssel hinterlegt ist, in OneDrive sollte es nicht sein.
Naja, beim zweiten Versuch, den Windows Offline Defender zu nutzen lief dieser auch durch, ohne die Bitlocker Schlüssel zu verlangen.

Hinweis: mittlerweile bietet Windows 11 Home eine automatische Bitlocker Verschlüsselung an, dafür ist die Pro Version nicht mehr nötig. Nur kann man in der Home Variante diese nicht ohne weiteres abschalten und beim Einbau einer bereits verschlüsselten SSD/HDD wird diese nicht automatisch entsperrt. Dies geschieht nur bei einer Neuinstallation, nach der alle Laufwerke automatisch freigegeben werden.


Benchmarks

Die verwendete Software stützt sich teils auf synthetische und teils auf echte Games oder Anwendungen. Aufgrund von Zeitmangel fällt der Umfang etwas geringer aus.
In den Diagrammen sind teilweise nur die Hauptkonkurrenten RX 6400 und RTX 3050m aufgeführt.
  • Blender 3.6.0
  • 3DMark von UL (Dx 11 u. 12, Raytracing)
  • Car Mechanics Simulator
  • Neon Noir, Raytracing von Crytek
  • Final Fantasy XV
  • GTA V (Dx 10 u. 11)
  • PLA, ein chinesischer Benchmark auf Basis der Unreal Engine 3 (Dx9 u. 11)
  • Superposition von Unigine
  • PCMark von UL
  • Cinebench R10 und R23
Theoretische Rechenleistung

GPUVega 8Radeon 680MRTX 3050mUHD-630*Radeon RX 6400
Pixel pro s8,8 GPixel/s70,4 GPixel/s42,9 GPixel/sCa. 3,6 GPixel/s74,3 GPixel/s
Texel pro s35,2 GTexel/s105,6 GTexel/s85,9 GTexel/sCa. 28,8 GTexel/s111,4 GTexel/s
FP 162,25 TFLOPS6,76 TFLOPS5,5 TFLOPSCa. 921,6 GFLOPS7,13 TFLOPS
FP 321,13 TFLOPS3,38 TFLOPS5,5 TFLOPSCa. 460,8 GFLOPS3,56 TFLOPS
FP 6470,4 GFLOPS211,2 GFLOPS85,95 GFLOPSCa. 115,2 GFLOPS222,8 GFLOPS
*Werte sind für einen 100 MHz höheren Turbotakt


Blender Benchmark
SystemBenchmarkMonsterJunkshopClassroomkombiniert
Ryzen 7 6800H
87,6​
58,3​
42,9​
62,93
Radeon 680M
137,0​
66,9​
60,9​
88,27
RTX 3050m
709,4​
384,9​
373,2​
489,17​
Core i3-1010538,224,318,527


3DMark
3DMark 01_1.jpg


3DMark 02_1.jpg


3DMark Raytracing 01_1.jpg

RX 6400 nicht aufgeführt

3DMark 03_1.jpg


RDNA2 im Vergleich

Kurioserweise ist die iGPU Radeon 680M teilweise schneller, als die RX 6400. Denn die 680M verfügt nur über 77 GB/s Bandbreite, die noch mit der CPU geteilt wird, während die RX 6400 über 128 GB/s verfügt, inklusive dem 16 MB großen Infinity Cache.
Sobald der Test der RX 580 16GB abgeschlossen ist, werde ich die 6400 noch einmal durch den Test Parcours jagen.
3DMark 04_1.jpg

Car Mechanic Simulator
Car Mechanic Simulator 01_1.jpg



Car Mechanic Simulator 02_1.jpg


Crytek Neon Noir
Crytek Neon Noir 01_1.jpg



Crytek Neon Noir 02_1.jpg



Crytek Neon Noir 03_1.jpg


Final Fantasy XV
FF XV 01_1.jpg



FF XV 02_1.jpg



FF XV 03-01_1.jpg


GTA V

GTA V 01_1.jpg



GTA V 02-01_1.jpg


GTA V 02_1.jpg



GTA V 03_1.jpg



GTA V 03-01_1.jpg


PLA Benchmark
PLA Benchmark 01_1.jpg



PLA Benchmark 02_1.jpg


Superposition
Superposition 01_1.jpg



Superposition 02_1.jpg



Superposition 03_1.jpg


PCMark

PCMark 10_1.jpg



PCMark 10_2.jpg



PCMark 10_3.jpg



PCMark 10_4.jpg



PCMark 10_5.jpg

Die kleine RTX 3050m schlägt sich doch ganz wacker, gegen die Konkurrenz, wenn man bedenkt, das es sich um eine reine Notebook GPU mit nur 4 GB RAM handelt.


CPU Tests

Getestet habe ich im Cinebench R10, R23 und 2024, sowie dem UL PCMark (siehe oberhalb).

Cinebench 2024
CPUMulti CoreSingle Core
Ryzen 5 3500U16853
Core i3-101528765
Ryzen 7 6800H*68488
*nur 16 GB RAM im Single Channel

Weitere Cinebench Ergebnisse: Computerbase

Cinebench R23
Im R23 habe ich zusätzlich Kerne nach und nach deaktiviert, um zu schauen, wie sich das Power Budget auswirkt. Also können z.B. vier Kerne einenhöheren Takt ausfahren, wenn die restlichen vier Kerne über msconfig deaktiviert sind.
Hier hat sich gezeigt, das es absolut Kontraproduktiv ist, was die reine CPU Leistung betrifft.

Cinebench R23_1.jpg

Mit seinen 14.151 Punkten im Multi-Core liegt die CPU gleichauf mit dem älteren Ryzen 7 5700G, dem 7 5800X im Eco Modus und in Schlagdistanz zu einem Core i7-11700. Auch ein Core i9-9900K mit 5,2 GHz ist nicht all zu weit entfernt.
Diesen fünf CPUs ist gemein, das alle über acht Kerne und sechzehn Threads verfügen.
Ein CB User hat noch zwei Xeon E5-2690 v2 getestet, dies ist eine alte Ivy Bridge CPU im 22nm Verfahren und zehn Kernen mit HT. Diese alte Architektur ist kaum schneller, als der hier getestete Ryzen 7 6800H, trotz zwanzig Kernen.

Im Single Core liegt man in der Nähe des Ryzen 7 5800X und des Apple M1 (notebookcheck).
Der Core i9-9900K wiederum liegt 100 Punkte zurück. Ganz gut schlägt sich hier die Notebook CPU Core i7-1165G7 @15W, welche aber nur über vier Kerne verfügt.

Mein Core i3-10105 (4Kerne/8Threads) hat im Cinebench R23 5.343 und 1.140 Punkte. Der Pentium N3710 (6W CPU, 4Kerne) hat 632 sowie 192 Punkte.
Mein Ryzen 5 3500U (notebookcheck) erreicht dagegen 2.069 und 801 Punkte. Was ich mit der Kern Deaktvierung erreichen wollte, zeigt sich bei dieser CPU sehr deutlich: 2.310 Punkte im Multi-Core mit drei Kernen und sches Threads liegt doch deutlich über der Leistung bei vollen vier Kernen.

Cinebench R23 02_1.jpg


Weitere Ergebnisse zum Cinebench R23: Computerbase Test


Cinebench R10
Cinebench R10_1.jpg

Der i5-4210U ist eine Dual-Core Notebook CPU


Kritikpunkte

Update 26.02.2024: ich dachte erst, das eine Kunststoffnase beim Zusammenbau abgebrochen war, leider ist dies nicht der Fall gewesen, sondern eine lose Schraube hatte zu Bluescreens oder schwarzen Bildschirm geführt. Na hoffentlich sind keine Schäden entstanden.
Vor allem die Energiesparmaßnahmen sind grottig umgesetzt. So verhindern Programme sehr schnell, dass das Gerät in den Energiesparmodus gelegt wird, hier funktioniert teilweise weder die automatische Abschaltung nach x-Minuten noch das manuelle Eingreifen.
Auch der Ruhezustand ist ein zweischneidiges Schwert, denn sobald der aktiviert wurde und das Gerät runterfährt, darf man das Stromkabel nicht entfernen. Denn dies führt zu einem Restart des Laptops. Warum nur, Lenovo? Denn so hat das Gerät schon mal fröhlich vor sich hin geidlet, während es im Rucksack steckte. Und ja, es lässt sich im UEFI (BIOS) deaktivieren, aber welcher normale User, außerhalb unserer Bubble stellt das um?
Auch ist der zweite NVMe Steckplatz sinnvoll, aber auf Kontaktseite sitzt die SSD lose, so dass Windows die erst nach einem öffnen des Gerätes und unterlegen von Papier wieder erkannt hat.
Positiv ist dagegen die Laufzeit des 71 Wh Akkus. Denn selbst bei voller Beleuchtung hält dieser gut durch. Ja, eine genaue Angabe fehlt zum Zeitpunkt des Schreibens noch.


Fazit

Das Fazit fällt trotz der Kritikpunkte positiv aus. Gerade aus P/L Sicht stechen das einzelne 16 GB DDR5 Modul hervor, so wie der Bildschirm. Beides ist keine Selbstverständlichkeit und ersteres erleichtert das Aufrüsten, da man den vorhandenen RAM nicht „wegschmeißt“, sondern erweitert. Und dank 4.800 MHz stehen der CPU trotzdem 38 GB/s an Bandbreite im Single Channel Betrieb zu.
Da für gewöhnlich die GeForce am Werkeln ist, stört die Bandbreitenlimitierung auch nicht so stark, wie gegenüber einer Single Chip Lösung. Bisher ist mir nur Wolfenstein: The New Order bekannt, dass immer die Radeon nutzt, was bei dem Alter des Spiels aber kein Beinbruch ist. Das hat selbst die Vega 8 gut gestemmt.
Zu der Eingangsfrage, ob die acht Kerne sinnvoll sind, kann ich nur eines sagen: ja. So gut Windows doch manchmal läuft, schiebe ich einen Großteil davon auf die wesentlich höhere Leistung pro Kern, also den IPC (Instruction per Cycle) Gewinn gegenüber der Zen 1 Architektur. Ich wäre mit sechs Kernen auch ans Ziel gekommen, teilweise gar mit vier. Wesentlich wichtiger ist dabei die neu gewonnen Grafikleistung in Form der GeForce RTX 3050m.

3DMark Time Spy_1.jpg

Bezahlt habe ich für Laptop und den zweiten 16 GB RAM Riegel 800€, was im Angesicht des hellen und farbtreuen Bildschirms, der starken CPU und der Verwendung von DDR5 als Arbeitsspeicher durchaus ein guter Preis ist. Die Konkurrenz hat, rein vom Datenblatt her, teilweise wesentlich weniger geliefert.


Was ich mir wünsche
Dass was sich auch viele andere wünschen: einen Infinity Cache für die Radeon. Ob 16 MB, oder gar nur 8 MB wie bei der nie veröffentlichten RX 6300, wirklich einen Ausschlag geben? Kurioserweise liegt die Radeon 680M teilweise sogar vor der RX 6400. Ob dies mit besseren Treibern zu tun hat, kann ich erst nach Tests mit der RX 580 16GB sagen, da diese gerade im Desktop verbaut ist.
In reinen Office Maschinen, mit der Möglichkeit ab und zu ein aktuelleres Spiel zu spielen, hat durch die integrierte RDNA2 GPU jedenfalls wieder einen guten Schritt voran gebracht.


weitere Tests


bereits verlinkt

Kommt gut in den Sonntag und viel Spaß beim lesen
 
Zuletzt bearbeitet: (Nachtrag zu Bitlocker unter Windows 11 Home)
  • Gefällt mir
Reaktionen: lynx007, FTPFreezer, Metallmann und 32 andere
Moin moin :)

evtl. jammern auf höhstem Niveau: aber fehlt da nicht irgendwie Cinebench ?
Ich hab eigentlich immer irgendwie grob ein R20 Bench Resultat im Kopf zum vergleichen :)

Hab ihn hier also auch erwartet.
Will damit in keinstem Fall sagen das du dir hier keine Arbeit gemacht hast ! :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck und andi_sco
Kommt noch, der CB R20 will gerade nicht starten und die Ergebnisse vom R10, R23 und 2024 liegen vor😴.
Den R23 und R10 habe ich auch mal mit deaktivierten Kernen getestet, um zu schauen, wie sich die iGPU dann verhält.
Teilweise kann diese zulegen, dafür werden dann aber im Cinebench geringere Werte erreicht. Also alle 8 Kerne aktiv und beim Testen von 4 Kernen / 8 Threads ist die Punktzahl merklich höher, als wenn ich die CPU nur als 4 Kerner laufen lasse.

Achso, das Gerät ist ein Lenovo IdeaPad Gaming 3 16ARH7
 
  • Gefällt mir
Reaktionen: RaptorTP
Vielen Dank für den Leserartikel.:daumen:

Der Laptop kommt bei dir ja ganz gut weg.

Was meinst du denn jetzt zu der CPU Leistung? Spürst du im Alltag die zusätzlichen Kerne und Kernleistung?

Die Vega8 ist ja leider zu gut um nur für 2D zu sein und zu schlecht für fast alle Spiele.

Was sagst du dazu, dass die mobile 3050 von der alten 1070 geschlagen wird?

Was ist deine Einschätzung zu den mickrigen 4GB VRAM bei RTX 3050m und RX 6400?
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Baal Netbeck schrieb:
Was meinst du denn jetzt zu der CPU Leistung?
Ist in einigen Anwendungen doch ganz gut. Wobei die 16 Threads bei mir immer noch totaler Overkill sind.

Baal Netbeck schrieb:
Braucht TDP und RAM Takt, dann kann sie nochmal kräftig zulegen. Vor allem hatte ich ja nur einen U-Prozessor, der ja zur 15W Klasse gehört.
Aber ja, ihre Zeit ist abgelaufen.

Baal Netbeck schrieb:
Was sagst du dazu, dass die mobile 3050 von der alten 1070 geschlagen wird?
Naja, ich sag es mal so: kann man nach zwei Generationen eine 150W GPU mit einer 50W GPU schlagen? Wobei die 1070 auch noch eine höhere FP32 Leistung hat.
Trotz der angezeigten max. 87 W Board Power der 3050m ist und bleibt es eine Notebook Karte.
Screenshot 2023-09-21 172852.png


Baal Netbeck schrieb:
Was ist deine Einschätzung zu den mickrigen 4GB VRAM bei RTX 3050m und RX 6400?
Gerade bei der 6400 sehe ich das Problem, das die GPU einbricht, bevor der RAM zu knapp wird.
Bei der 3050m habe ich nur in Halo Infinite massiv Probleme, was die Texturen betrifft. Wer Halo 1 CE kennt, welches für die erste XBox erschien: es schaut besser aus. Hier muss ich aber zugestehen, das es auf der RDNA2 zwar besser läuft, aber dafür regelmäßig abstürzt. Keine Ahnung, was hier schief läuft.
Bei Land of War - The Beginning habe ich keine Probleme.

Unigine Superposition
Superposition 6400 vs 580 vs 3050m_1.jpg

Speicherbelegung ist für die RX 6400, Daten sind aus GPU-Z.
Die Radeon RX 580 ist eigentlich eine RX 570 mit höheren GPU u. geringerem VRAM Takt, sowie 16 GB VRAM.


Tenferenzu schrieb:
Hier fehlt der nicht ewähnte Preis um sich wirklich ein Bild machen zu können!
Wie? Kein Google zur Hand?
Hast natürlich recht, es waren mit dem zweiten 16 GB Modul 800€
 
  • Gefällt mir
Reaktionen: Baal Netbeck
andi_sco schrieb:
Naja, ich sag es mal so: kann man nach zwei Generationen eine 150W GPU mit einer 50W GPU schlagen?
Wenn man das bedenkt, ist der Unterschied natürlich besser zu erklären.
andi_sco schrieb:
Braucht TDP und RAM Takt, dann kann sie nochmal kräftig zulegen.
Bei dem Ryzen 5600G konnte ich grob 18% mit RAM OC und GPU OC rausholen. Das ist als Übertaktung ein ordentlicher Wert, von dem man bei dedzierten Grafikkarten meist nur träumen kann.

Aber es macht meiner Einschätzung nach nur für die wenigsten Spiele einen Sinn.
Entweder das Spiel läuft so oder so unzureichend oder es ist uralt und läuft auch mit XMP RAM.
andi_sco schrieb:
Bei der 3050m habe ich nur in Halo Infinite massiv Probleme, was die Texturen betrifft. Wer Halo 1 CE kennt, welches für die erste XBox erschien: es schaut besser aus.
Das sind natürlich nur bestimmte Spiele, die Probleme machen, aber dann ist es besonders ärgerlich.
Und es ist blöd, dass sich das fast nicht in Benchmarks zeigt.

Da war ich von der iGPU sehr positiv überrascht. Ich hatte gedacht, dass es viele matschige Texturen geben würde weil sie sich nur 0,5 GB reserviert, aber das scheint nur ein theoretischer Wert zu sein und die Texturqualität war immer super.

Auch gab es keine Häufung an Rucklern oder ähnlichem.....nur grundsätzlich längere Frametimes.
andi_sco schrieb:
Gerade bei der 6400 sehe ich das Problem, das die GPU einbricht, bevor der RAM zu knapp wird.
andi_sco schrieb:
Unigine Superposition
Da hat der zusätzliche VRAM ja erst im letzten Test einen Vorteil gebracht.
Ist halt die Frage, wie es davor schon mit der Texturqualität aussah.
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
Das sind natürlich nur bestimmte Spiele, die Probleme machen, aber dann ist es besonders ärgerlich.
Und es ist blöd, dass sich das fast nicht in Benchmarks zeigt.
Die iGPU nimmt sich ja wesentlich mehr RAM, wenn sie mehr braucht. Bei mir sind jetzt zwar 4 GB eingestellt, aber auslasten kann sie wohl bis 14 GB.

Halo Infinite auf der RTX:
Screenshot 2023-09-10 135637.png



Screenshot 2023-09-11 002845.png



Baal Netbeck schrieb:
ja erst im letzten Test einen Vorteil gebracht
Ab FullHD Extreme wird der VRAM langsam knapp.
Ich habe leider nicht immer die RAM Belegung dokumentiert.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
andi_sco schrieb:
Halo Infinite auf der RTX:
Das ist ja wirklich absurd hässlich.:lol:

Ich habe vor kurzen Northern journey angespielt und das sieht noch um Welten besser aus als dein Halo Beispiel. :)
 
Baal Netbeck schrieb:
Jupp.

Und wie ich gerade sehe, stürzt der Final Fantasy XV ab, sofern die iGPU genutzt wird und lässt sich erst nach einem Windows Neustart wieder starten.

Dafür erreicht der Benchmark mit der 3050m, im Dual Channel Modus des normalen RAM, höhere Werte als im Single Channel.

Und der GPU-Takt liegt laut GPU-Z bei 1.950 MHz bei der 3050m. Entweder spinnt das Programm oder der Takt liegt wirklich merklich über dem eigentlichen Boost-Takt von 1.7500 MHz (laut CB).

Tabelle folgt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Abstürze sind natürlich inakzeptabel.... Sofern es nicht an der Spiele Programmierung liegt.

Ich meine bei Nvidia ist es inzwischen üblich, dass der reale Boost Takt über dem offiziellen Boost Takt liegt.
 
Bisher habe ich sonst keine Probleme. Ich werde aber Furmark, Prime95 und den 3DMark erneut parallel laufen lassen, um alle Komponenten zu belasten.
Gerade wegen den Abstürzen hatte ich den Laptop aber schon mal so belastet, für 30min, ohne das es zu Abstürzen kam.
 
Als einfachen und ohne stundenlange Messungen Memtest, ist TestMem5 sehr gut darin 99% der RAM Instabilitäten inerhalb weniger Minuten zu finden.

Ich teste im Moment beim Ausloten von Timings erstmal nur TestMem5 und erst als Abschluss oder einen Zwischenstand, teste ich noch andere Memtests, die dann deutlich länger laufen.

Je nach PC Aufbau kann es zum Problem werden, wenn die Grafikkarte den RAM mit warmer Abluft anpustet.
Memtest + Furmark oder 3DMark Stresstest sollte man dann auch testen.

Oder nur eine Instanz HCI Memtest im Hintergrund laufen lassen, wenn man spielt, kann auch Instabilitäten aufdecken.
 
  • Gefällt mir
Reaktionen: andi_sco
Baal Netbeck schrieb:
Als einfachen und ohne stundenlange Messungen Memtest
Schmeiße ich nachher an

Jetzt, nach 30min Hardcore sah es so aus:
Akku geladen
Prime95 für die CPU
Furmark für die GeForce
3DMark für die Radeon
Screenshot 2023-10-02 140024.png
 
Die Kühlung scheint ja gut zu funktionieren. :daumen:

Ich würde HWInfo oder avg statt max Werte in GPU-Z bevorzugen.
Macht die Einordnung einfacher.
 
  • Gefällt mir
Reaktionen: Baal Netbeck, BlackVally und Tanzmusikus
Zurück
Oben