Test Athlon 200GE im Test: AMDs 50-Euro-Herausforderer für den Intel Pentium G

Also ich finde die Einstellung lobenswert das man sich die Mühe gemacht hat, den Test noch vor dem Wochenende zu liefern aber für meinen Geschmack darf und muss sich CB mehr Zeit nehmen. Es fehlen die Messwerte zur Temperatur, es fehlt eine relevante Auswahl an E-Sport Titel und älteren Spielen. Es wird nicht auf die 4K(Streaming) Fähigkeit eingegangen. Ebenso fehlen Vergleiche zu den A CPUs von AMD und den Athlon für die am1 Plattform.

Die ersten Benchmarks und Reviews zu der CPU gab es vor ca. 1 Woche auf Youtube. Ich gehöre zu der Gruppe die gerne wartet und dann aber von CB einen Test erwartet der auf vieles eingeht die die Reviews nicht beleuchten. Daher lieber etwas mehr Zeit nehmen und dafür umfangreicher.
 
  • Gefällt mir
Reaktionen: Hembi, Steini1990, Pry_T800 und 3 andere
Ich versteh das es ein guter Konkurrent ist zu dem Pentium G4560, aber wieso erwähnen hier alle HTPC als Einsatzgebiet?

Bevor ich mal recherchiert habe dachte ich auch das G4560 gut für nen HTPC wäre und damit das hier ne gute Alternative wäre aber es gibt ja etwas viel besseres, selbst der Intel scheint mir hier besser solange die Spieleleistung nicht relevant ist:

Intel: ITX Board 55,- + G4560 lagernd 60-70,- = 130 Euro
Amd: ITX Board 103,- + Athlon 55,- = 160 Euro

Aber vielleicht versteh ich HTPC falsch, aber nicht jeder spielt mit nem HTPC oder doch?
Den das ist doch die eigentliche Lösung für das Problem:

https://geizhals.de/asrock-j4105-itx-90-mxb6n0-a0uayz-a1764491.html?hloc=at&hloc=de

J4105-ITX Celeron 4kern hdmi 2.0 x265 10W tdp -> 85 Euro

oder wenns aus irgend nem Grund ein Pentium sein soll

https://geizhals.de/asrock-j4205-itx-90-mxb270-a0uayz-a1525586.html?hloc=at&hloc=de

find ich aber merkwürdiges Modell da es noch ddr3 controller hat, gut kann man noch am Ram zusätzlich sparen I guess.

Wenn ihr spielen wollt versteh ich das, versteht mich nicht falsch bin AMD fan bisschen aber zahl nicht den doppelten preis und hab 3x tdp.

Much wundert nur das offenbar 100% der Leute hier mit ihrem HTPC spielen wollen oder was macht ihr sonst wo ihr die Mehrleistung braucht. Normal gehts doch nur um die Anschlüsse und das es die neuesten Codecs abspielen kann auf 4k. Das kann die 85euro Celeron Lösung auch.

Sicher manche haben sicher gute Gründe (Gaming) aber ich könnte mir hier vorstellen das viele nicht von den verlöteten boards von Intel wissen das ging mir auch lange so.
 
  • Gefällt mir
Reaktionen: cbtestarossa, mastermc51 und larska
blackiwid schrieb:
J4105-ITX Celeron 4kern hdmi 2.0 x265 10W tdp -> 85 Euro
Habe das Ding als kleinen, lautlosen Office PC im Einsatz. Läuft soweit ganz gut...
 
Taxxor schrieb:
Es gibt doch schon ein paar coole Cases, die man per VESA Halterung an einen Monitor anbringen kann, zwar nicht so klein wie ein NUC aber im Grunde ist die Größe doch fast egal, solange es hinten am Monitor ist und die Kiste nicht zu schwer wird.
Da einen 2200G oder gar einen 2400G rein mit einer vernünftigen Kühlung, die GPU von 1100MHz hoch auf 1500MHz, ein Y Kaltgerätekabel dazu(sofern der Monitor ein integriertes NT hat) und man hat etwas, was man dann auch wirklich "Gaming Monitor" nennen kann^^

Ich glaube so ein Projekt werde ich echt mal angehen, wenn die Zen2 APUs auf dem Markt sind, der perfekte Oldschool LAN Rechner, einfach den Monitor gepackt, Maus, Tastatur, Headset und LAN Kabel in den Rucksack und fertig ist man^^
Leider hat mein Hauptmonitor den Standfuß an der VESA Halterung montiert....

Schau mal
https://www.silverstonetek.com/product.php?area=de&pid=553
 
  • Gefällt mir
Reaktionen: DefconDev
Nixdorf schrieb:
Fazit: Ich bekomme bei AMD den Gesamtverbrauch nicht in Einklang mit den Angaben in HWiNFO. Irgendwo verbraucht das AMD-System beim Cinebench noch 15-20W, die ich nirgends unterbringen kann. Ich möchte da nicht spekulieren, wo diese Differenz her kommt, aber sie erklärt zumindest, warum ComputerBase deutlich ungünstigere Messwerte für AMD misst. Das ist also keine böse Absicht, sondern offenbar real messbar.
Das kann ich bestätigen. Ich habe mir einen 2400G mit einem A320 Board (MSI A320 Bazooka) zugelegt, mit einem relativ sparsamen Be Quiet! 300W Netzteil und 2100er RAM @1,2V. Ergebnis: fette 39W an der Dose. Nach Wechsel auf das ASRock B450-Gaming-ITX/AC hab ich nun stetig schwankende 40-50W im Idle, allerdings mit aktiviertem WLAN und Bluetooth.
Nun bin ich ziemlich ratlos, weil mich dieser fette Verbrauch schon sehr überrascht. Interessanterweise lässt OC die Leistungsaufnahme nur unwesentlich ansteigen: 45-50W im Idle, mit RAM auf 2400MHz @1,3V, GPU 1500MHz @ 1,2V und CPU ohne Spannungsanhebung auf 3900MHz allcore festgetackert. Also GPU und CPU takten auch im Idle nicht runter, und trotzdem ist der Stromverbrauch an der Dose keine 5W höher.

Ich finde diesen Absatz deshalb am interessantesten:

Aus dem Computerbase-Artikel schrieb:
Zumindest an der Spannung lässt sich aber auch beim Athlon 200GE etwas drehen. Die 35-Watt-CPU ist ohnehin schon sehr sparsam, doch mit fast einem Volt weniger Spannung lässt sich die Leistungsaufnahme im Leerlauf unter Windows 10 unter die 20-Watt-Marke drücken und unter maximaler Last lassen sich ebenfalls noch zwei, drei Watt einsparen.

Mich würden hier wirklich die eingestellten Settings interessieren, da mein Rechner sowieso zu 90% nur rumidlet und die restliche Leistung eher sekundär ist.
 
@blackiwid : Dein Beitrag deckt sich mit meiner Einschätzung, die ich vor ner Woche in einem anderen Thread formuliert habe:
Wie dem auch sei: als Gaming-Maschine ist der 200GE eine Pleite, da muss man schon mindestens mit dem R3-2200G einsteigen, der für 75% Aufpreis um die 100% mehr Leistung bringt. Und fürs stationäre Notebook-Replacement (Office&Multimedia) ist der 200GE zu teuer oder auch zu energiefressend. An die Effizienz eines GeminiLakes kommt er bei weitem nicht heran. Und auch Freunde gesockelter Prozessoren müssen beim Normalo-Einsatzzweck nicht mit höheren Stromkosten rechnen, wenn sie statt des 200GE einen günstigeren Celeron G4900 oder A6-9500 wählen. Und dass der 200GE in irgendwelchen Anwendungsbenches längere Balken produziert wird auch niemand stören, der keine Videobearbeitung pp betreibt.
 
Volkimann schrieb:
Aber es wäre in der Zeit mit Sicherheit möglich gewesen den Test mit genau diesem Hinweis erstmal zu ergänzen, anstatt diesen einfach so unverändert jetzt tagelang online zu lassen.

Das habe ich soeben an zwei Stellen (Spiele-Benchmarks + Fazit) im Threadripper-Test getan. Und auch in diesem Artikel gibt es jetzt einen Hinweis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ned Flanders, Hembi, Matzegr und 4 andere
blackiwid schrieb:
Ich versteh das es ein guter Konkurrent ist zu dem Pentium G4560, aber wieso erwähnen hier alle HTPC als Einsatzgebiet?
Weil die damit eigentlich einen Wohnzimmer PC meinen. Das Angebot an Boards ist bei AMD einfach nur grob lächerlich. Der typischen Embeded Bereich wird im Moment noch überhaupt nicht bedient und ITX mit 100€ Boards ist einfach nur abartig. Gerade das Board macht den Athlon zum nogo.
Für einen Spielerechner wiederum kann gleich der 2600er rein und ein gutes (u)ATX Gehäuse in HIFI Optik. Eine GPU bauen die meisten eh ein. Für alles andere bietet Intel deutlich bessere Lösungen. Überhaupt erst mal zwo LAN Ports haben...
 
blackiwid schrieb:
Aber vielleicht versteh ich HTPC falsch, aber nicht jeder spielt mit nem HTPC oder doch?
...
Mich wundert nur das offenbar 100% der Leute hier mit ihrem HTPC spielen wollen oder was macht ihr sonst wo ihr die Mehrleistung braucht. Normal gehts doch nur um die Anschlüsse und das es die neuesten Codecs abspielen kann auf 4k. Das kann die 85euro Celeron Lösung auch.
Stichwort: Bildqualität.
Um es am besten zu veranschaulichen, was ich meine, poste ich den Link zur madVR Webseite:
http://www.madvr.com/
Auf der Seite ist rechts ein Bild (vom Schloss Neuschwanstein?), unten kann man drei Bildberechnungsalgorithmen anwenden, (Bilinear, Lanczos3, NGU) und man sieht deren Auswirkung auf das ausgegebene Bild. Aber das ist nur die berühmte "Spitze des Eisbergs", was mit purer GPU Power möglich ist, um ein Bild in Echtzeit "schöner zu rendern".

Mein 2400G @ 1500MHz schafft es gerade noch, 4k@24p (Standard-UHD-Format) mit NGU wiedergeben zu können. Aber ganz ehrlich, bei dieser Auflösung ist das ja eher uninteressant, da quasi niemand so nah vor seinem TV sitzt, um diese Unterschiede bei 4k/UHD Auflösung noch bemerken zu können. Viel interessanter ist Upscaling von HD Inhalten, da aktuell ja das gesamte TV Angebot, Blurays und ca. 90% anderer Unterhaltungsmedien eben noch nicht in 4K vorliegen.

Kurze Zwischensequenz: Viele haben schon 4k TVs zu Hause, und nutzen entweder 4K Receiver/Set top Boxen oder Anbieter wie Netflix. 4K ist toll. HDR ist toll. Aber Nur ein Bruchteil der konsumierten Medien hat überhaupt 4K/UHD oder 4K HDR Format. Das meiste (90%!) ist schnödes Full HD und (noch schlimmer!) upgescaltes HD Ready. Das ist so. Keiner will es zugeben, da es ja sein teuer erkauftes Equipment in Frage stellen könnte. Aber es ist so. Über gestreamtes 4K mit all ihren sichtbaren Nachteilen wie wegkomprimierten Farben will ich gar nicht erst reden, dazu könnte ich seitenweise Beispiele bringen....

Was kann man dagegen machen? Upscaling von HD Inhalten.
Mit dem Media Player Classic (MPC-HC oder MPC-BE) und madVR Renderer beispielsweise (es gibt noch andere) kann man Full HD Blurays so upscalen und bearbeiten lassen, dass sie bei normalen Abstand zum TV absolut keinen Unterschied zu echtem 4K HDR Material zeigen.

Dazu braucht man eben GPU Power. Und zwar fett GPU Power. Ein 2400g @ 1500MHz geht grad noch, aber (noch sichtbar) besser geht's ab einer Fury aufwärts.

Edit: Nur nochmal zur Veranschaulichung: Bei mir sieht 720p auf meinem 65er Full HD Plasma TV (durch den obligatorischen Sitzabstand) fast so toll aus wie 4K HDR Material auf einem 4K HDR Gerät. Nur mit dem Unterschied, dass Full HD und 720p auf dem 4K TV Kacke aussieht, und bei meinem TV eben nicht. Besser kann man es nicht beschreiben, das muss man schon mal gesehen haben, um es glauben zu können. Aber es gibt Geräte, die HD in 4K upscalen können, Dreambox oder Vu+ Geräte, aber die kosten 600€ aufwärts. Aber das ist hier das absolut falsche Forum dafür, weil hier muss alles "super-und-hip-aber-billig" sein. Und TV Receiver sind mittlerweile alles andere als hip und angesagt. Aber sie liefern immer noch das mit weitem Abstand beste Bild.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: _casual_ und Pry_T800
blackiwid schrieb:

Exakt dieses MB (incl. CPU) habe ich in meinem HTPC (passiv gekühlt) und bin zufrieden damit.
(LibreELEC drauf)
Vorher hatte ich nen AMD A4-5000 (auch MB incl. CPU) warum kommt so was speziell für HTPC nicht von AMD bzw. den Mainboard Herstellern?
Der AMD A4-5000 war halt mit 4k und h.265 nicht mehr einsatzbereit^^
Des weiteren rege ich mich schon seit längerem auf warum man kein miniITX Board für AM4 unter EUR 100,- bekommt!!!
Das fücht doch jede budget Planung eines HTPC mit AMD Hardware ad absurdum.

1151 gibts ab 55 EUR
1151v2 ab 71 EUR
AM4 ab 101 EUR
https://www.heise.de/preisvergleich/?cat=mbam4&xf=4400_Mini-ITX

Für Spiele PC und richtige ATX Boards keine Frage, da passt das.
Da ich aber noch nen i7-5820k 4@GHz habe lohnt ein Umstieg nicht.
Aber niemand konnte bisher erklären warum bei Chipsätzen die bei AMD doch ned das doppelte kosten wie bei Intel, so massiv teuerere miniITX Mainboard heraus kommen.

Wenn mein i7 mal zu langsam wird kommt eh ein AMD Threadripper mit 16 oder 24 Cores...
 
Zuletzt bearbeitet:
Da muss man eindeutig die Board-Hersteller kritisieren. Die scheinen die Nachfrage bisher, da es den Athlon ja jetzt erst neu gibt, nicht hoch genug eingeschätzt zu haben.

Die Frage wird sein, ob nun noch ITX Boards nachgeschoben werden, durch den vorhanden Athlon und seine kommenden Brüdern, sollte die Nachfrage in diesem Bereich ja enorm steigen.
 
blackiwid schrieb:
G4560 lagernd 60-70,- = 130 Euro
Amd: ITX Board 103,- + Athlon 55,- = 160 Euro

Ja, die ITX Boards sind aktuell einfach zu teuer. Eigentlich war ja der X300 und A/B Variatne für ITX Boards geplant. Das hätten glaub ich kleinere Chipsätze sein sollen, denn für ITX ist ein B350 bzw B450 einfach überdimensioniert.

Anderseits finde ich die 30 Euro jetzt nicht so dramatisch, denn immerhin gibt es am Ende noch die Möglichkeit, später das System durch ein 7 oder 7+nm APU auszutauschen.

Aber was fehlt ist einfach ein A68 FM2+ Board Nachfolger im Preisgebiet von 60 Euro.
 
  • Gefällt mir
Reaktionen: Pry_T800 und ViridisVis
Ich fürcht die Board-Situation wird sich erst mit neuen Chipsätzen langsam verbessern. Die B450/X470-Boards sind ja größtenteils refreshes der B350/X370-Boards, mit minimalen Anpassungen. Und was es für die alten Chipsätze nicht gab, gibts halt auch für die neuen nicht. Aber vielleicht kommt ja doch noch eine Überraschung.

Ich spiele mit dem Gedanken mir diese Kiste zusammenzubauen. Altes NT und 256GB SSD ist vorhanden. 4GB RAM müssten vorerst reichen, bei den jetzigen Preisen will ich nicht mehr ausgeben und ein zweiter Riegel ist immer möglich. Die Performanceeinbußen werd ich verkraften können, gespielt wird damit eh maximal FTL, Into the Breach, Hotline Miami und Co.
Haupteinsatzgebiet wäre als Wohnzimmer-PC für Multimedia und als letzte Ruhestätte für meine alten HDDs (billig-selfmade-pseudo-NAS), die bisher einfach nur herumliegen (deshalb ein Board mit 6 SATA-Anschlüssen und ein vergleichsweise großes Gehäuse mit viel Platz für Laufwerke).
Auch die Möglichkeit künftig aufzurüsten spricht mich an: in zwei Jahren gibts vielleicht einen 4400G + 16GB flotten RAM (dann ist er hoffentlich auch wieder bezahlbar) als Upgrade und das Teil wird zum Budget-1080p-Gaming-Rechner.
 
  • Gefällt mir
Reaktionen: _casual_
pipip schrieb:
denn für ITX ist ein B350 bzw B450 einfach überdimensioniert.
Naja für mein (zugegeben, Nischen-)Vorhaben eines Gaming Monitors mit APU wäre es schon nötig oder zumindest wünschenswert, dass man die APU auch übertakten kann^^
 
In Anwendungen lahmer (als ein G4560) und in Spielen auch nicht wirklich zu gebrauchen.
Also für mich wäre das Ding nix.
mace1978 schrieb:
Ja, da hätte ich mir etwas mehr im Test gewünscht.....
dito

btw htpc technisch steige ich grad auf die stino chromecast2 um - reicht. der rest wird wieder verkloppt.
internet reicht nicht für 4k, schnelleres gibts vermutlich erst wenn ich in rente gehe(hab hier mit o2 teilweise nichtmal telefonempfang (also zum telefonieren!!))
große filmsammlungen passen bei mir auf die paar hdds, da brauchts keine nas. schlechte & alte filme werden gelöscht, die kann man meistens eh dauerhaft streamen.
 
Das Fazit leuchtet mir allerdings nicht so ganz ein
Seiner TDP-Einstufung von nur 35 Watt wird der Prozessor dabei vollends gerecht
G4560 TDP: 54W
200GE TDP: 35W


Gesamtverbrauch

mit 1080Ti
G4560 Cinebench x-CPU: 59W
200GE Cinebench x-CPU: 60W

mit iGPU
G4560 Battlefront 2: 55W
200GE Battlefront 2: 54W

Also entweder braucht der 200GE deutlich mehr als 35W unter Last, oder der G4560 braucht trotz einer TDP von 54W real auch nur 35W, wobei ich mir nicht vorstellen kann, dass Intel die TDP bewusst so viel höher ansetzen würde.
 
Zuletzt bearbeitet:
Raucherdackel! schrieb:
Das kann ich bestätigen. Ich habe mir einen 2400G mit einem A320 Board (MSI A320 Bazooka) zugelegt, mit einem relativ sparsamen Be Quiet! 300W Netzteil und 2100er RAM @1,2V. Ergebnis: fette 39W an der Dose. Nach Wechsel auf das ASRock B450-Gaming-ITX/AC hab ich nun stetig schwankende 40-50W im Idle, allerdings mit aktiviertem WLAN und Bluetooth.
Vom Idle an sich habe ich allerdings gar nichts geschrieben, sondern von der Idle-Last-Differenz. Da geht es nur um den Unterschied zwischen Idle und Last, und nicht um den Idle-Wert selbst. Dennoch: Die 39W bei dem 2400G-System erscheinen mir klar zu hoch. Es sollten unter 30W sein, wenn keine dedizierte Grafikkarte verbaut ist. Könnte es sein, dass die C-States im UEFI abgeschaltet sind?

Raucherdackel! schrieb:
Mich würden hier wirklich die eingestellten Settings interessieren, da mein Rechner sowieso zu 90% nur rumidlet und die restliche Leistung eher sekundär ist.
Das ist zumindest bei meinem Board ganz simpel: Man geht in die AMD CBS Settings und da in die NBIO Common Options und dann gibt es da den Punkt cTDP Control, wo man einfach den Wert in Watt eintragen kann. Das ist dann das Maximum für die Package Power. Das ist auch genau das, was später in Tools wie HWiNFO angezeigt wird.

Optimal ist es, wenn man ein Board nimmt, das Offset-Voltage kann. Das schließt MSI aus, bei denen kein einziges AM4-Board es hat. Am besten sind wohl ASUS-Boards, bei denen es feine Einstellmöglichkeiten gibt. Mein ASRock kann leider nur -50mV oder -100MV und nix dazwischen. Jedenfalls verschafft das Undervolting dem Precision Boost bei gesenkter TDP wieder mehr Platz, um den Takt trotz gesenktem Verbrauch weiter oben zu halten.

Sinnvolle Werte fangen beim 2700X bei etwa 35W an. Da sieht man schon, dass man deutlich Leistung auf allen Kernen weg gibt, aber bekommt zum Beispiel im Single Core Boost immer noch die 4,3 GHz. Ein Wert von 10W ist zum Beispiel zu wenig. Das bootet zwar, aber es wird schon nicht mehr ganz geschafft, weil die Package Power dennoch drüber liegt. Und der Takt ist dann irgendwo beim Minimum von 550 MHz, dass der prozessor kann. Das ist so lahm, dass sogar die Windows-GUI ruckelt. Bei anderen Prozessoren geht es natürlich weiter runter.

Anzumerken ist noch, dass dies zwar die Package Power limitiert, aber weiterhin noch deutlich mehr Watt zwischen Idle und Last gemessen werden. Bei 35W maximaler Package Power ergeben sich aber nicht mehr die Diskrepanzen, die ich nicht erklären kann. Bei 44W im Idle sind es 88W unter CB15 nT. Das sind 44W Differenz, was bei angenommenen 88% Netzteil-Effizienz in diesem Lastbereich zu sekundärseitigen 39W führt. Das sind dann nur 4W neben den 35W Package Power, was ziemlich genau für das VRM bei einer so geringen Belastung passt.
Ergänzung ()

Taxxor schrieb:
Also entweder braucht der 200GE deutlich mehr als 35W unter Last, oder der G4560 braucht trotz einer TDP von 54W real auch nur 35W, wobei ich mir nicht vorstellen kann, dass Intel die TDP bewusst so viel höher ansetzen würde.

Wie viel die real verbrauchen, kann man doch ganz gut sehen. Beim 200GE ist die Idle-Last-Differenz bei 33W (54-21) und beim G4560 sind es 38W (55-17). Da kommt dann noch der Verbrauch der CPU im Idle dazu, aber das sind nur 2-3W. Somit liegt der 200GE exakt bei den angegebenen 35W und der G4560 liegt bei etwa 40W.

Und doch, Intel gibt sehr wohl mehr an als den tatsächlichen Verbrauch, weil die TDP-Angabe aus Sicht des CPU-Herstellers nichts mit dem Verbrauch zu tun hat, sondern eine Designvorgabe für die Stärke des Kühlsystems darstellt. Die Angabe von 54W sagt den OEMs, dass sie die Fertiglösung für 54W nehmen können. Der springende Punkt ist, dass Intel hier nur eine kleine Zahl von TDP-Klassen definiert, damit die Hersteller das gesamte Portfolio mit möglichst wenig unterschiedlichen Kühlsystemen nutzen können. Der G4560 passt mit realen gut 40W nicht mehr in die 35W-Klasse, also schreibt Intel 54W drauf, weil das die nächst höhere Klasse ist.
Ergänzung ()

Denniss schrieb:
Igor misst selber und verlässt sich nicht auf Schätzungen irgendwelcher Programme
Soviel ich weiß, misst Igor direkt, wieviel durch die 12V-Versorgungsleitung der CPU geht. Die Messergebnisse, die damit erzielt wurden, passen ungefähr zu dem, was auch die Sensor-Tools melden. Was aber in beiden Fällen prinzipbedingt nicht gemessen ist, weil es schlicht außerhalb der Betrachtung liegt, ist das, was im Rest des Rechners passiert. Und das ist, wenn man augenscheinlich außer der CPU nichts belastet, ebenso interessant.

Ich messe auch selbst, allerdings halt mangels entsprechende teurem Equipment nur den Gesamtverbrauch an der Steckdose. Da muss man sich dann mit allerlei Mathe behelfen.

Ein Beispiel:
  • Beim 2700X messe ich mit Werkseinstellungen (Stock) im Idle 44W und unter Last 204W (CB15 nT) an der Steckdose.
  • In HWiNFO sind dann 109W Package Power abzulesen. Das passt also in etwa zur TDP von 105W, bei sehr leichter Überschreitung. Es ist auch ein Noctua drauf, da darf die CPU das, ist ja Precision Boost.
  • Die Messwerte von der Steckdose muss man auf sekundärseitig umrechnen. Das Netzteil ist ein Straight Power 11 450W. Die 44W sind etwa 10% Last, die 204W sind 45%. Aus dem Test zum Netzteil gehe ich mit 86% Effizienz an Idle und mit 93% an den Lastwert. Das sind dann sekundärseitig 38W und 190W.
  • Wir haben also eine Idle-Last-Differenz von 152W, aber davon sollen angeblich nur 109W Package Power sein. Wo werden also die restlichen 43W verbraucht?
  • Der einzige echte Verbraucher sollte beim CB15 noch die Spannungsversorgung auf dem Board sein. Selbst bei einem sehr ineffizienten VRM sollten das nicht mehr als 20W bei 109W Last sein.
  • Es bleiben also immer noch 23W, für die ich keine Erklärung habe.
Nun kann man sagen, ich rechne halt Mist und das ist alles Quatsch. Das Problem ist nur, dass bei einem System mit i7-8700 genau die gleichen Messungen zu absolut plausiblen Ergebnissen kommen.

Jedenfalls kann ich von den 152W Idle-Last-Differenz nicht alles dem VRM zurechnen, und das lässt nur den Schluss zu, dass der reale Verbrauch der CPU oberhalb der Package Power liegt, die das Sensor-Tool meldet. Eventuell zieht die CPU auch signifikant was aus der regulären Board Power, und Igor hat das nicht erfasst?

Was man auch sagen kann, ist, dass die hier von ComputerBase gemessene Idle-Last-Differenz von 147W (196-49) im CB15 nT völlig plausibel ist. Das sind sekundärseitig um die 130W, die Differenz zu einer Package Power von 105W sind 25W. Davon kann man bei deren Board um die12W auf das VRM schieben, und dann haben die ebenfalls ein paar mysteriöse Watt übrig, die man nirgendwo unterbringen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Yar, AssembIer und stevefrogs
VikingGe schrieb:
Der Singlecore-Wert muss falsch sein, der 2200G hat auch nur 15% mehr Takt, ist aber laut dem Test hier 35% schneller. Da kann irgendwas nicht stimmen.

Irgendwas stimmt mit Cinebench und Raven-Ridge wohl nicht so ganz. Hatte mal meine beiden 2200G durchgemessen, weil ich eine stark unterschiedliche RAM-Bestückung habe. System A mit Single-Channel 4GB auf 2133 Mhz, System B mit Dual-Channel 8GB auf 3000 Mhz. Während System A plausible Ergebnisse zwischen Single und Multi lieferte und auch Single auf System B ein wenig besser war, war der Multicore-Test völlig daneben, nicht mal die Hälfte vom System A. Selbst nach Neustart und erneutem Test dieses seltsame Ergebnis. Ich meine der Test auf 7 Zip und CPU-Z liefen relativ normal, wenn ich mich recht erinnere, muss ich noch mal gegen testen.


BTT:
Schöne Einsteiger-APU und gute Alternative zu den Pentiums.
Nur wenige Wochen zu Spät für meine Athlon 5370 Ablöse. Aber nicht schlimm, im Idle ist der 2200G auch schon super genug und nahezu lautlos bekomme ich ihn auch gekühlt.
 
Nixdorf schrieb:
  • Es bleiben also immer noch 23W, für die ich keine Erklärung habe.
Bei mir wird auch ab und zu(vor Allem im Idle) der Wert der "CPU+SOC Power" etwas höher ausgelesen, als die "CPU Package Power", manchmal aber auch niedriger, also so zuverlässig ist die Angabe so oder so nicht.

Dazu kommen ja neben den VRMs auch noch alle restlichen Komponenten, Gehäuselüfter, SSDs, RAM, die ja dann auch alle etwas mehr verbrauchen dürften, 23W ist aber auch da zu viel.

Was sagt denn deine Package Power im Idle, wenn du 44W an der Dose misst, bzw 38W Gesamtverbrauch hast?

Ich habe mit meinem 1600X z.B. auch im Energiesparprofil, wenn er konstant auf 2200MHz taktet im Idle eine Package Power von ca 25W, was ca 10W mehr sind, als das was von Tomshardware für die CPUs gemessen wurde.
 
Zuletzt bearbeitet:
Zurück
Oben