Test Athlon 200GE im Test: AMDs 50-Euro-Herausforderer für den Intel Pentium G

Taxxor schrieb:
Bei mir wird oft der Wert der "CPU+SOC Power" etwas höher ausgelesen, als die "CPU Package Power", manchmal aber auch niedriger, also so zuverlässig ist die Angabe so oder so nicht.
Stimmt, aber die Angabe ist nur selten höher, und wenn, dann nur sehr wenige Watt. Jedenfalls schließt das nicht die "Erklär-Lücke" von 23W.

Taxxor schrieb:
Dazu kommen ja neben den VRMs auch noch alle restlichen Komponenten, Gehäuselüfter, SSDs, GPU Idle
Ja, aber der Großteil davon rechnet sich raus, weil es ja in den Idle-Messwerten genau so enthalten ist wie in den Lastwerten. Die SSD tut zum Beispiel während des CB15-Laufs nicht mehr und nicht weniger als davor und danach. Die GPU ist beim Cinebench ebenfalls ziemlich untätig, außer natürlich, wenn man den Cinebench-OpenGL-Test macht, aber der ist hier off-topic. Einzig die Gehäuselüfter verbrauchen unter Last mehr, falls sie es in den paar Sekunden schaffen, rauf zu drehen. Das erklärt vielleicht 3W von den 23W, auf keinen Fall mehr.

Taxxor schrieb:
Was sagt denn deine Package Power im Idle, wenn du 44W an der Dose misst?
Kann ich aktuell nicht verifizieren, weil ich gerade nicht zu Idle komme, aber ich meine, es sind knapp 8W. Das ist dann allerdings kein vollständiges Idle, denn wenn ich die Package Power ablesen, ist ja das Sensor-Tool aktiv. Das sind dann schon mal um die 3-5W mehr an der Steckdose. So richtig Idle ist der Ryzen ja immer dann, wenn man gerade nicht hinguckt. Schon die Anzeige des Takts im Idle heißt ja, dass dafür der Kern aufgewacht ist. Der reale Idle-Verbrauch der CPU dürfte bei 2-4 Watt liegen.

Methodik: Bei Idle-Messungen an der Steckdose ermittle ich den niedrigsten Wert, der mehrfach gesehen wird. Zwischendurch geht es a immer mal kurz hoch, aber das ist dann kein Idle. Und eine Mittelwertmessung ist mir für die Häufigkeit, mit der ich das letztens machen musste, zu kompliziert.
 
Nixdorf schrieb:
Kann ich aktuell nicht verifizieren, weil ich gerade nicht zu Idle komme, aber ich meine, es sind knapp 8W. Das ist dann allerdings kein vollständiges Idle, denn wenn ich die Package Power ablesen, ist ja das Sensor-Tool aktiv.
Krass, dann frage ich mich wirklich was mit meiner CPU nicht stimmt^^
Idle mit Chrome und dem Sensor Tool offen, CPU Last bei 2-4%
1min im Profil Ryzen Balanced(meist 3,7GHz)
ryzen balanced.png


1min im Profil Balanced(durchgehend 2,2GHz)
balanced.png


Hast du eigentlich auch diese ominösen +10K Sprünge im Idle beim Sensor für die CPU Temperatur?
Man findet im Netz nur ganz viele, die davon ebenso berichten, aber keine Erklärung, warum es so ist oder wie man es beheben könnte.
Sieht man bei den Bildern ganz gut an der max Temp, sie springt immer mal wieder einfach von 28 auf 38 hoch und geht dann direkt wieder runter, sobald sie wieder in der Nähe von 28 ist, springt sie wieder auf 38 hoch und so weiter...
Das habe ich mit dem alten Board gehabt, das habe ich mit dem neuen Board und das habe ich auch bei meinem Laptop.

Nixdorf schrieb:
Der reale Idle-Verbrauch der CPU dürfte bei 2-4 Watt liegen.
Tomshardware messen da da ca 13W Package Power für einen 2700X
Mein 1600X soll demnach bei 17,4W liegen, was laut HWInfo zumindest im Balanced Profil mit der CPU+SoC Power übereinstimmen würde.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Krass, dann frage ich mich wirklich was mit meiner CPU nicht stimmt

Ich mache auf jeden Fall noch Screenshots, wenn die aktuell laufenden Downloads durch sind, ich neu starten und den Rechner mal richtig idlen lassen kann. Bis dahin aber schon mal der Hinweis, dass "Ryzen Balanced" ausschließlich für Ryzen 1000 gedacht ist. Für meinen Ryzen 2000 teste ich den daher nicht.

Vielen Dank übrigens für den Hinweis mit den 2,2 GHz bei einem 1600X. Das stärkt nun die Aussage, dass offenbar der sichtbare Idle-Takt bei allen X-Modellen bei 2200 MHz liegt und bei den Non-X sind es 1500 MHz. Der reale Idle-Takt ist übrigens noch niedriger. AMD sagt dazu "unter 1 GHz" und tatsächlich gibt es auch "0 Hz", wenn im C6-Idle-Power-State dann Clock- und Power-Gating dazu kommen.

Aktuell in nicht komplett Idle hab ich bei Minimum 12,4W Package Power und 8,3W CPU+SOC.
Ergänzung ()

Taxxor schrieb:
Hast du eigentlich auch diese ominösen+10K Sprünge im Idle beim Sensor für die CPU Temperatur?
Was meinst du genau? Vielleicht hast du einen Link, damit ich mir das anlesen kann. Mit K meinst du wohl Kelvin. Ich finde 10 Grad rauf oder runter erstmal noch nicht speziell, denn es gibt im Idle ja immer mal Momente mit mehr Aktivität. Daher die Bitte um mehr Input zum Thema.
 
Zuletzt bearbeitet:
Nixdorf schrieb:
Was meinst du genau? Vielleicht hast du einen Link, damit ich mir das anlesen kann. Mit K meinst du wohl Kelvin. Ich finde 10 Grad rauf oder runter erstmal noch nicht speziell, denn es gibt im Idle ja immer mal Momente mit mehr Aktivität. Daher die Bitte um mehr Input zum Thema.
Naja man findet viele reddit Einträge dazu, z.B. hier
https://www.reddit.com/r/Amd/comments/6he1ky/ryzen_1700_temperature_spikes_in_idle/

Klar gibt es im Idle immer mal wieder Momente mit mehr Aktivität, aber diese Spikes treten ja wirklich nahezu konstant jedes mal genau dann auf, wenn die Temperatur gerade wieder auf den min Wert gefallen ist, nicht früher und nicht später.
Und die Temperatur klettert ja auch nicht linear hoch sondern springt wirklich von der einen auf die andere Sekunde um ziemlich genau 10°C höher und geht dann auch direkt wieder runter.

Auch die CPU Package Power verändert sich nicht, während diese Sprünge auftreten.

Für mich kein Problem, da meine Lüfter sowieso an die AIO Wassertemp. gekoppelt sind(die sich dabei nicht mal um 0,1K verändert), aber wenn man seine Lüfter auf die CPU Temp auslegt, kann das schon nervig sein.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Tomshardware messen da da ca 13W Package Power für einen 2700X
Ich vergaß bei meiner Schätzung den Uncore-Teil. Der Fabric und der RAM-Controller sind ja immer aktiv. Die Kerne kommen allerdings wirklich auf fast nichts runter, wenn man nicht mit dem Tool drauf guckt.

Vermutung:
Aktuell sehe ich bei mir zum Beispiel 3,7W für die Kerne und 5,0W für SOC, was sich auf 8,7W summiert. In deinen Screenshots ist es ja auch so, dass 3,6W für die Kerne und 14,1W (!) für SOC sich zu 17,7W summieren. Die Kerne sind bei beiden Rechnern quasi identisch im Verbrauch. Das passt also, und dieser Wert geht noch niedriger, wenn man das Tool zu macht.

Somit ist der hohe Wert bei dir durch SOC alleine bedingt. Das lässt zwei Schlüsse zu:
  1. Du hast 3200er RAM, vermutlich 2x8GB. Bei mir sind es zwar 4x16GB, allerdings nur 2400er RAM. Der höhere Speichertakt sorgt für den Mehrverbrauch, insbesondere auch der identisch getaktete Infinity Fabric.
  2. Deine SOC-Voltage ist bei 1,087V, meine nur bei 0,813V. Ich hätte die auch für arg niedrig gehalten, aber das ist bei meinem Board die Werkseinstellung, da hab ich nichts dran verändert. Das wurde wohl beim Speichertraining vom Board selber so festgelegt.
Zum einen könntest du also mal gucken, was bei niedrigerer SOC-Voltage passiert. Im schlimmsten Fall wird es instabil, im besten geht der Verbrauch runter. Zum anderen könntest du rein akademisch zu Prüfzwecken mal den RAM auf 2400 oder 2133 runter stellen und gucken, was das ausmacht.
 
Zuletzt bearbeitet:
Ja mein RAM ist eigentlich 2133er mit einem DOCP Profil auf 3200, ich kann ihn mal auf Stock stellen und gucken was passiert.
Edit @Nixdorf :
Unbenannt.jpg


Idle Verbrauch fast halbiert, das ist mir die Latenzsteigerung von 76 auf 98ns aber nicht wert^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ground0
Wäre so ein kleiner auch dazu in der Lage einen Plex-Server brauchbar zu betreiben der nie viel mehr zu tun hätte als 1 Stream bereitzustellen und vermutlich auch nicht transcodieren muss? Wäre ja nen ziemlich günstiger EInstieg :heilig:
 
Taxxor schrieb:
Klar gibt es im Idle immer mal wieder Momente mit mehr Aktivität, aber diese Spikes treten ja wirklich nahezu konstant jedes mal genau dann auf, wenn die Temperatur gerade wieder auf den min Wert gefallen ist, nicht früher und nicht später.
Das kann aber auch eine Fehlinterpretation sein. Ja, ich habe das auch, aber ich habe es nicht als "es geht immer dann wieder rauf, wenn es gerade unten angekommen ist" interpretiert, sondern als "festes Intervall, in dem irgendeine Last passiert". Das passiert dann nur zufällig immer dann, wenn die Temperatur gerade unten ist, weil die halt entsprechend braucht, um wieder etwa so weit runter zu kommen.

Mache ich den Taskmanager zu, der ja ebenfalls in festen Intervallen bestimmte Dinge misst, wird das schon weniger ausgeprägt. Und ich vermute, wenn ich HWiNFO auch zu mache, dann geht es komplett weg. Aber das kann ich ja nicht sehen, denn dazu müsste ich HWiNFO auf machen.
Ergänzung ()

7hyrael schrieb:
Wäre so ein kleiner auch dazu in der Lage einen Plex-Server brauchbar zu betreiben der nie viel mehr zu tun hätte als 1 Stream bereitzustellen und vermutlich auch nicht transcodieren muss?

Solange der wirklich nur I/O-Arbeiten erledigen muss, reicht alles. Da kann man auch einen Atom oder einen Pi nehmen.
 
  • Gefällt mir
Reaktionen: 7hyrael
@Nixdorf naja "vermutlich". Wäre schon dufte wenn er einen 1080p transcoding thread packen würde. Wobei ich vermute dass der GPU part recht verschwendet wäre, die langweilt sich ja dann quasi immer.
 
raptoxx85 schrieb:
Ein Vergleich zu den 5350 wäre schön gewesen.

Finde ich auch. Ich habe so einen 5350 im Einsatz und wenn es etwas wirklich spannendes im Low Power Bereich geben würde, dann würde ich mir vielleicht Gedanken machen. Dieser Athlon ist aber in Sachen Leistung/Watt überhaupt nicht spannend, vor allem wenn man bedenkt, wieviele Jahren zwischen 5350 und Athlon 200ge liegen.

tic-tac-toe-x-o schrieb:
Dafür braucht dein Phenom vielleicht so 3x mehr Strom?

Bei knapp 10 Jahren, die zwischen diesen Prozessoren liegen, muss man fast sagen, der Phenom verbrät nur(!) 3x mehr Strom.
 
Nixdorf schrieb:
Ich mache auf jeden Fall noch Screenshots

CPU.png


Et voilà! Um die 8W, wie vermutet. Es sind in der Momentaufnahme 3,747W für die Kerne und 4,540W für SOC, in der Summe 8,287W. Das Minimum liegt bei 8,049W für CPU+SOC und 8,351W für die Package Power, da passt die Summe nicht, weil die Minima unterschiedliche Samples repräsentieren.

Dein Test mir DDR2133 hat ja auch schon 6W statt 13W als Minimum hervor gebracht, verbunden mit automatisch niedrigerer SOC-Voltage. Offenbar kostet das schnellere RAM also tatsächlich diese 7W Differenz.

@Taxxor Als weitere Optimierung bietet sich nun manuelles Einstellen der SOC-Voltage an. Die Vorgabe-Werte für DDR2133 und DDR3200 sind ja nun bekannt, da kann man mal schauen, ob 0,9V funktionieren und was das bringt. Bitte dann auf jeden Fall hier berichten.

Ergänzung ()

7hyrael schrieb:
@Nixdorf naja "vermutlich". Wäre schon dufte wenn er einen 1080p transcoding thread packen würde. Wobei ich vermute dass der GPU part recht verschwendet wäre, die langweilt sich ja dann quasi immer.
Es wurde explizit gesagt, dass nicht transkodiert wird. Wenn das stimmt, reicht fast alles, inklusive 200GE und sogar noch schwächeren CPUs. Wenn das nicht stimmt, ist der 200GE sehr wahrscheinlich zu schwach.
Ergänzung ()

Taxxor schrieb:
Hast du eigentlich auch diese ominösen +10K Sprünge im Idle beim Sensor für die CPU Temperatur?
Bei mir schwingt es zwischen 31°C und 37°C, also etwas weniger. Und die Häufigkeit nimmt ab, wenn man in den Einstellungen von HWiNFO bei "Polling Period" die Werte für "Disk SMART" und "Emb. Controller" auf 50 Intervalle herauf setzt. Das alles legt nahe, dass HWiNFO selber dafür sorgt, dass die Temperatur wieder rauf geht. Wieso vergessen nur immer alle, dass die Sensor-Abfrage auch ein Lastzustand ist?
 
Zuletzt bearbeitet:
Raucherdackel! schrieb:
Stichwort: Bildqualität.
Um es am besten zu veranschaulichen, was ich meine, poste ich den Link zur madVR Webseite:

So ist das nur relevant für Windows und DX oder ist das auch wichtig unter Linux mit Kodi?

Viel interessanter ist Upscaling von HD Inhalten, da aktuell ja das gesamte TV Angebot, Blurays und ca. 90% anderer Unterhaltungsmedien eben noch nicht in 4K vorliegen.

Youtube tuts teils schon, schau halt nur serien 10-20% und 80-90% youtube und ganz selten mal nen Film. Hab noch nicht mal nen 4k TV, spiel ganz leicht mit dem Gedanken, aber bin recht beschränkt mit dem Budget auch wenn man die teils schon auf Ebay hinterher geschmissen bekommt.

Spiele aber eher mit dem Gedanken mittelfristig doch mal was VR mäsiges (gebrauchtes/billiges) zu holen. Hab noch nen 4k Monitor aber ja der ist natürlich klein und müsste für Youtube 4k ohne preloading erst mein internet updaten wo ich auch ungern tu (auch wenn verfügbar :D).

Bin recht Cheap momentan naja Stück weit muss ichs sein. Naja so viele Filme gibts da ja nicht (für VR), aber braucht man da auch für Filme schauen fette cpu/gpu? Naja vielleicht weißt du das oder wer anderer?


Kurze Zwischensequenz: Viele haben schon 4k TVs zu Hause, und nutzen entweder 4K Receiver/Set top Boxen oder Anbieter wie Netflix. 4K ist toll. HDR ist toll. Aber Nur ein Bruchteil der konsumierten Medien hat überhaupt 4K/UHD oder 4K HDR Format. Das meiste (90%!) ist schnödes Full HD und (noch schlimmer!) upgescaltes HD Ready.
Naja hab noch kein 4k Monitor daher hab ichs nicht so eilig manchmal wärs ganz nett x265 Support zu haben sonst tuts mir mein uralter Zacate E350 noch wunderbar.

Das man 4k inhalte Downscalen kann (was ja auch besser aussehen soll wie 2k Material), und das ich wenn ich nen 4k TV krieg nicht gleich wieder nen neuen HTPC kaufen muss ist da nur ne Art Bonus.

Aber klar NUR wegen x265 support brauch ichs mir auch nicht kaufen.

Ist downscaling das selbe problem wie upscaling oder können die encoder chips das nicht in Hardware?

Der HTPC läuft bei mir halt rund um die Uhr und selbst abspielen tut er viele Stunden am Tag, da sollte er keine 70-100Watt verbrauchen.
 
7hyrael schrieb:
Wäre schon dufte wenn er einen 1080p transcoding thread packen würde. Wobei ich vermute dass der GPU part recht verschwendet wäre, die langweilt sich ja dann quasi immer.
Kommt drauf an, ob man das Transcoding von der GPU eledigen lässt. Ich weiß nicht, ob PLEX AMDs VCE und/oder Intels Quicksync unterstützt. Die Wahrscheinlichkeit ist höher für letzteres. In dem Fall könnte man transkodieren ohne große CPU-Last. Das wäre dann ein echter Vorteil.
 
Nixdorf schrieb:
Kommt drauf an, ob man das Transcoding von der GPU eledigen lässt. Ich weiß nicht, ob PLEX AMDs VCE und/oder Intels Quicksync unterstützt. Die Wahrscheinlichkeit ist höher für letzteres. In dem Fall könnte man transkodieren ohne große CPU-Last. Das wäre dann ein echter Vorteil.
Bedingt, transcoding via GPU neigt eher zu Bildartefakten nach meiner Erfahrung.
 
Nixdorf schrieb:
@Taxxor Als weitere Optimierung bietet sich nun manuelles Einstellen der SOC-Voltage an. Die Vorgabe-Werte für DDR2133 und DDR3200 sind ja nun bekannt, da kann man mal schauen, ob 0,9V funktionieren und was das bringt. Bitte dann auf jeden Fall hier berichten.
Habe jetzt aktuell mal weiterhin 3200MHz aber einen Offset von 0,15V für SoC drin, damit liege ich jetzt bei 0,94V und 10W SoC Power, mal schauen ob es stabil ist. Welcher Test bietet sich denn da an? einfach mal memtest durchlaufen lassen?
 
Taxxor schrieb:
Welcher Test bietet sich denn da an? einfach mal memtest durchlaufen lassen?
Nach einer Änderung, die man dauerhaft nutzen will, ist eine Nacht Memtest nicht verkehrt. Und ansonsten ist tatsächlich reales Nutzen der beste Test. Wenn nach einem Monat nix passiert ist, wird es wohl stabil sein.

Allerdings reden wir bei 10W zu 13W auch schon nur noch über 3W Ersparnis. Da ist das jetzt entweder stabil oder man stellt es zurück. Schon die Nacht Memtest kostet mehr Strom, als man in einem Jahr sonst spart.
 
@ BlackWidowmaker
War das nicht eher WinRAR, was auf intel gut lief? 7-Zip packt und entpackt übrigens bei AMD sehr schnell und ist nicht minder schlechter gegenüber Cinema 3D für AMD geeignet.

Bei den unten angegebenen 7-Zip Ergebnissen habe ich noch Firefox Quantum und WinTv offen. Also ingesamt eine höhere Grundlast und gemischter RAM Einsatz (OCZ, Infineon, Corsair). Der Vierkerner macht das gut, was er schon bei Einführung hätte machen müssen, wären viele Softwareprogrammierer damals weiter und auch pro AMD gewesen.

7 Zip.jpg7zipmax.jpg7 Zip265.jpg7 Zip265max.jpg

Aktuell hervorgehobenes orangenes Ergebnis ist mit Hintergrundanwendungen. Oberstes orangene Ergebnis ohne laufende Anwendungen und das mittlere Ergebnis war mal bei 3,7Ghz. Unter Windows 10 mit besserer Multithreadunterstützung könnte das noch besser aussehen.
CB3D.jpg

Sauber spannungsversorgt benötigt so ein Phenom II in 45nm auch nicht mehr als die 80W für das gesamte System. Eher 60W unter 800Mhz, wenn ich meine ganzen Steckkarten und Festplatten für den einfachen Office Rechner raus nehmen würde. Ich kann den Phenom sogar auf unerträglich langsame 600Mhz bei 0,64V runter takten um völlige Effizienz vorzutäuschen. Dynamischen Untertakten einzelner Kerne im Leerlauf wäre aber schon damals brauchbar gewesen. Nur verbrät der Cache in 45nm deutlich mehr, daher war der mobile Phenom auch schon damals um den L3 Cache kastriert.

Den Phenom II gibt es heute nur nicht in 14nm mit aktuellen Befehlserweiterungen, auch nicht als Fusion mit integrierter Grafikkarte, wenn auch mein 790GX Chispatz eine HD3300 mit Sideport 64MB RAM integriert hat und der Chipsatz damals im fortschrittlicheren 55/65nm Verfahren gefertigt wurde.

Wer würde heute den 200GE oder 2200G im fortschrittlichen 32nm SOI Verfahren im HTPC verbauen?

Was die allgemeine Spieleleistung betrifft, muss eine heutige Zockermaschine nur die in der aktuellen Spielkonsolen Generation verbaute Jaguar APU in der Leistung und halbwegs performanten 8GB RAM Ausstattung erreichen. Was nicht erreicht wird, ist das 256Bit Speicherinterface in den Konsolen. Nur noch ein Bruchteil der Spiele ist überhaupt für den PC entwickelt und viele Indie Spiele leben davon auf einer intel CPU mit integrierter intel GPU zu laufen.

Die Entwicklungsschritte hauen mich nicht vom Hocker, die es als laufende Entwicklung bei ITX und M-ATX schon länger gibt. Es vernünftig umzusetzen, das sollte der Anspruch sein.
 
blackiwid schrieb:
So ist das nur relevant für Windows und DX oder ist das auch wichtig unter Linux mit Kodi?
Das ist überall gleich. Das Bild muss gerendert werden, egal ob jetzt Windows Media Player, aufm Smartphone, durch nen Sat Receiver oder ein Bluray Player. Überall wird ein Algorithmus verwendet. Und je nachdem, welcher Algorithmus wo verwendet wird kann dieser per Hardware oder per Software umgesetzt werden. Die Vu+ Receiver (Linux-basiert) beispielsweise verwenden den Mitchell-Netravali Algorithmus in Hardware, was schon in etwa die Schärfe eines 720p Videos auf 1080p steigern kann. Mein 2400G kann auch x264 und x265 per Hardware, das nennt sich da einfach DXVA. Was die Grafikkarten Hersteller verwenden, und was bei denen dann in Hardware umgesetzt wird, ist und bleibt wohl deren Geheimnis.

blackiwid schrieb:
Naja so viele Filme gibts da ja nicht (für VR), aber braucht man da auch für Filme schauen fette cpu/gpu? Naja vielleicht weißt du das oder wer anderer?
Nö, für VR brauchst du genauso viel Saft wie für 3D oder Oldschool 2D.
blackiwid schrieb:
Ist downscaling das selbe problem wie upscaling oder können die encoder chips das nicht in Hardware?
Gleiche, Selbe, aber Andere :D Das kann auch mit den gelichen Algorithmen erledigt werden, und ebenso in Hard- oder Software.
 
Der Nachbar schrieb:
Sauber spannungsversorgt benötigt so ein Phenom II in 45nm auch nicht mehr als die 80W für das gesamte System.
Soll was heißen? Bei einem Phenom-II-System mit ordentlich Hardware drin ist das ein Idle-Wert. Mein altes System hatte einen vergleichbaren Core2 Q9550, da lag der Idle inklusive HD 7850, SSD und einem RAID aus zwei Platten auch bei gut 80W. Der 200GE hat mit der 1080 Ti 42W, das ist nur die Hälfte. Und mit der iGPU sind es nur 21W, also nur ein Viertel. Inwiefern ist das nun vergleichbar?

Bei meinem neuen Rechner mit 2700X bin ich von 84W im Idle auf auf minimal 44..50W runter. Im Idle und bei geringen Lasten liegt der Verbrauch 30W niedriger. Die Kiste ist im Schnitt 18 Stunden am Tag an, das spart also über 50€ Stromkosten pro Jahr.
Ergänzung ()

7hyrael schrieb:
Bedingt, transcoding via GPU neigt eher zu Bildartefakten nach meiner Erfahrung.
Klar tut es das, aber wir reden hier ja eh über einen Kompromiss, bei dem man mit einer schwachbrüstigen CPU ans Ziel kommt. Dazu gehört auch, ein nicht ganz optimales Bild zu akzeptieren. Tut man das nicht, ist der 200GE definitiv nicht schnell genug.
 
  • Gefällt mir
Reaktionen: 7hyrael
Mir gefällt die kleine APU und mich wundert langsam nichts mehr, wenn ich sehe dass hier wohl, vermeidbar oder nicht, Fehler in der Testmethodik zu einem falschen Artikel und Fazit geführt haben.

Der winzige Hinweis im Test ist einfach zu wenig, um das herauszustellen, eigentlich gehört der Test offline genommen, bis er validiert wurde, das wäre guter Journalismus und kein Unique IP sammeln um jeden Preis!

Erst die unmögliche Überschrift zum Test des Ryzen 3 im HP Notebook, bei dem HP ja alles falsch gemacht hat, was ein Assemblierer nur falsch machen kann, aber AMD laut Headline ja eine "lahme APU" dazu beisteuert.

Jetzt ein Test, der in seiner jetzigen Form eigentlich auf einer seriösen Seite nicht online sein sollte.

Warten wir mal auf den ersten Fehler in einem Test eines Intel Derivates, ob wir da lange warten dürfen? ;)

Fehler können immer passieren, aber so lange man die nötige Konsequenz schuldig bleibt, muss man auch die Vetternwirtschaftsanschuldigungen dulden.
 
Zurück
Oben