Leserartikel Der Intel Celeron G1610 - Billig und sparsam

misu

Lieutenant
Registriert
Juni 2010
Beiträge
985
Der Intel Celeron G1610 - Billig und sparsam

Inhalt
  1. Einleitung
  2. Die CPU
  3. Testsysteme und Methodik
  4. Synthetische Benchmarks
  5. Spiele Benchmarks
  6. Stromverbrauch & Undervolting
  7. Passiver Betrieb
  8. Video-Hardwarebeschleunigung
  9. Als Office PC CPU
  10. Fazit

Update(12.2.2013)
  • Benchmarksektion erweitert
  • Falsch angegebene Taktrate des G530 korrigiert
  • Vergleich mit G2020T in Fazit hinzugefügt

  1. Einleitung

    Vor kurzem hat Intel endlich die noch ausstehende unterste Klasse der Ivy Bridge Prozessoren vorgestellt. Neben einigen neuen Pentium Prozessoren waren auch neue Celerons vertreten. Bereits in der Vorgängergeneration haben die Celerons mit einer passable Geschwindigkeit zu einem sehr günstigen Preis auftrumpfen können. Ein Ziel dieses Tests ist es zu überprüfen, welche Verbesserung durch die Ivy Bridge Generation in der Unterklasse angekommen sind. Weiter wird insbesondere auf den Stromverbrauch eingegangen, da der Celeron neben dem Einsatz in Office PCs vor allem für HTPCs und Homeserver interessant sein dürfte. Ebenfalls spielt es ein gewisse Rolle, dass Tests von Budget CPUs recht selten sind, weswegen der ein oder andere möglicherweise deutlich mehr Geld ausgibt, als eigentlich nötig wäre.
  2. Die CPU

    Der Celeron G1610 ist ein Dual-Core Prozessor mit integrierter Grafikkarte. Er ist das kleinste und günstigste Modell mit normaler Spannung, das Intel derzeit anbietet. Im Gegensatz zu seinen größeren Kollegen ist der G1610 in mancherlei Hinsicht beschnitten.
    Bemerkenswert ist vor allem der niedrige Takt von nur 2,6Ghz und ein L3 Cache von nur 2Mb. Weiter fehlen die mit Sandy Bridge eingeführte Befehlssatzerweiterung AVX auch in der diesjährigen Generation von Celerons. Features wie Hyper-Threading oder einem Turbo Modus sucht man ebenfalls vergeblich.

    Der Celeron besitzt aber nach wie vor eine, im Verhältnis zur x86 Konkurrenz, sehr effiziente Architektur und dadurch eine hohe Leistung pro Takt. Etwas stutzig macht Intels Einordnung des Stromverbrauchs mit 55W TDP, die damit den meisten anderen aktuellen Zweikernern entspricht, trotz des niedrigeren Taktes und den weiteren Einschränkungen.


    Leider erkennt CPU-Z die aktuellen Celerons derzeit noch fälschlicherweise als Pentium G2100T. Interessant ist, dass der sich Pentium und Celeron praktisch nur bezüglich des Caches unterscheiden, vom dem der Pentium 3Mb hat, aber deutlich mehr kostet.

    Der direkte Vorgänger des G1610 war der Celeron G530.

    Wie man sieht, unterscheidet sich der G1610 von seinem Sandy Bridge Vorgänger von den Spezifikationen her kaum. Er ist letztlich nur 200Mhz langsamer, noch in 32nm gefertigt, hat eine um 10W höhere TDP.
  3. Testsysteme und Methodik

    Verwendet wurden drei Systeme. Zwei Celeron G basierte Plattformen und, um die Differenz zu besseren ausgestatteten Prozessoren unter den gleichen Bedingungen zu zeigen, ein Xeon E3-1230 System.

    Der Intel Xeon E3-1230 steht ziemlich genau zwischen i5-2500 und i7-2600. Er taktet mit 3,2Ghz etwas niedriger als der i5, bietet dafür allerdings noch 2Mb L3 Cache mehr, sowie Hyperthreading (wie ein i7). Mehr dazu siehe hier.

    Celeron G530 System:
    • CPU: Celeron G530
    • Mainboard: Gigabyte GA-H67N-USB3
    • RAM: 2Gb Noname (1 Dimm)
    • Festplatte: OCZ Petrol 256Gb bzw. Samsung Spinpoint F1
    • Netzteil: Pico PSU 120W (gelb) + König 90W Tischnetzteil

    Celeron G1610 System:
    • CPU: Celeron G1610
    • Mainboard: AsRock B75M-ITX
    • RAM: 4Gb Adata (1 Dimm)
    • Festplatte: OCZ Petrol 256Gb bzw. Samsung Spinpoint F1
    • Netzteil: Pico PSU 120W (gelb) + König 90W Tischnetzteil

    Xeon E3-1230 System:
    • CPU: Xeon E3-1230
    • Mainboard: AsRock H61M-HVS
    • RAM: 8Gb TeamElite (2 Dimm)
    • Festplatte: Samsung Spinpoint F1
    • Netzteil: BeQuiet Straight Power 580W

    Die Benchmarks wurden unter Windows mit der HDD durchgeführt. Als Stabilitätstest diente einmal mehr Prime95, genauer: Der In-Place Large FFTs Test mit 2 Threads.

    Der Stromverbrauch wurde mit einem Voltcraft Energy Check 3000 gemessen. Als Betriebssystem wurde hierfür Linux verwendet.
    Für diesen Test kam die OCZ SSD zum Zug, da deren Stromverbrauch geringer ist als der der Samsung Festplatte.

    Da mir kein gut ausgerüstetes Testlabor bereitsteht und meine Zeit nicht ganz unbegrenzt ist, mussten leider für die Testdurchführung einige Kompromisse eingegangen werden. Es wäre es besser gewesen, beide CPUs auf dem gleichen Board zu testen. Außerdem dürfte es für den ein oder anderen Test eine Rolle spielen, ob ein oder zwei RAM Riegel verbaut sind, da bei 2 Riegeln dank vorhandenem Zweikanalspeicherkontroller die doppelte Speicherbandbreite zur Verfügung steht. Die ist insbesondere beim Vergleich mit anderen Tests zu berücksichtigen.

    Bei den Tests waren jeweils Maus, Tastatur, ein USB-Hub sowie ein Monitor angeschlossen. Der Monitor wurde über die Energieeinstellung nach einer Minuten ausgeschalten, da ein Ausschalten des Monitors selbst nicht unbedingt dazu führt, dass der Grafiktreiber keine weiteren Bilder erzeugen lässt.
  4. Synthetische Benchmarks
    Um zu überprüfen, wie viel Leistung Intel ihrem günstigsten Ivy Bridge Spross noch gelassen haben, wurden einige Benchmarks durchgeführt. Diese wurden im Wesentlichen den Computerbase CPU Tests entnommen. In Klammer angegebene Prozentwerte zeigen die Leistungsveränderung vom G530 zum G1610 an.

    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]Sandra Arithmetik (gesamt)[/td]
    [td]Sandra Speicher[/td]
    [td]Sandra Crypto (AES)[/td]
    [/tr]
    [tr]
    [td]G1610[/td]
    [td]25GOPS[/td]
    [td]8,34Gs/s (ein Dimm, Single-Channel)[/td]
    [td]248Mb/s[/td]
    [/tr]
    [tr]
    [td]G530[/td]
    [td]22,7GOPS[/td]
    [td]6,12Gb/s (ein Dimm, Single-Channel)[/td]
    [td]237Mb/s[/td]
    [/tr]
    [tr]
    [td]Xeon E3-1230[/td]
    [td]95,44GOPS[/td]
    [td]17,45Gb/s (Dual-Channel)[/td]
    [td]2,19Gb/s[/td]
    [/tr]
    [/table]

    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]Super Pi[/td]
    [td]Truecrypt (AES encryption)[/td]
    [td]WinRar integrierter Benchmark[/td]
    [td]PCMark 7 (Hdd)[/td]
    [td]Cinebench CPU[/td]
    [/tr]
    [tr]
    [td]G1610[/td]
    [td]802s (+14%)[/td]
    [td]226Mb/s(+22%)[/td]
    [td]1.953Kb/s(+16%)[/td]
    [td]2557(+28%)[/td]
    [td]2,1(+16%)[/td]
    [/tr]
    [tr]
    [td]G530[/td]
    [td]919s[/td]
    [td]185Mb/s[/td]
    [td]1.678Kb/s[/td]
    [td]1988[/td]
    [td]1,8[/td]
    [/tr]
    [tr]
    [td]Xeon E3-1230[/td]
    [td]588s[/td]
    [td]3,2Gb/s[/td]
    [td]7.209Kb/s[/td]
    [td]3280 (GTX470)[/td]
    [td]2,1[/td]
    [/tr]
    [tr]
    [td]G1610 (Dual-Channel und GTX470)[/td]
    [td]766s[/td]
    [td]225Mb/s[/td]
    [td]2.128Kb/s[/td]
    [td]-[/td]
    [td]2,1[/td]
    [/tr]
    [tr]
    [td]Amd E2-1800 (notebookcheck)[/td]
    [td]2292s[/td]
    [td]~100Mb/s[/td]
    [td]482Kb/s[/td]
    [td]965[/td]
    [td]0,62[/td]
    [/tr]
    [tr]
    [td]Amd E4-5300 (CB-Test)[/td]
    [td]~2000s (obskure Quelle)[/td]
    [td]833Mb/s[/td]
    [td]1.978Kb/s[/td]
    [td]3003[/td]
    [td]1,43[/td]
    [/tr]
    [tr]
    [td]i3-3220 (CB-Test)[/td]
    [td]~615s (nicht-CB Quelle)[/td]
    [td]323Mb/s[/td]
    [td]4.014Kb/s[/td]
    [td]3778 (GTX680)[/td]
    [td]3,31[/td]
    [/tr]
    [/table]

    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]3DMark Vantage[/td]
    [td]3DMark IceStorm[/td]
    [td]3DMark CloudGate[/td]
    [td]3DMark FireStrike[/td]
    [/tr]
    [tr]
    [td]G1610 (Dual-Channel u. GTX470[/td]
    [td]P11739[/td]
    [td]58513[/td]
    [td]6574[/td]
    [td]2154[/td]
    [/tr]
    [tr]
    [td]Xeon E3-1230[/td]
    [td]P17059[/td]
    [td]114133[/td]
    [td]15224[/td]
    [td]2372[/td]
    [/tr]
    [/table]

    In diesen Tests schneidet der neue Celeron zwischen 14 und 26% besser ab als sein direkter Vorgänger. Zu erwarten gewesen wären mindestens 8% durch den um 200Mhz höheren Takt des G1610. Durch die neue Mikroarchitektur waren nochmals bis ~10% zu erwarten. Bei manchen Tests stimmt das auch in etwa, aber PCMark7 und Truecrypt zeigen noch einen deutlich größeren Zuwachs. Dies könnte an der ebenfalls gestiegenen Speicherbandbreite liegen, da der G530 Speicher mit maximal 1066Mhz unterstützt. Davon dürften zumindest die GPU Tests in PCMark7 profitieren.

    Im Verhältnis zu den AMD Plattformen ist eine um Faktor 2-4 bessere Performance im Vergleich zum E2-1800 zu erkennen. AMDs A4-5300 befindet sich mehr oder weniger auf Augenhöhe. Falls der A4 seine erweiterten Befehlssätze nutzen kann, setzt er sich deutlich ab, wie in Truecrypt (dank AES-NI). Durch die etwas bessere GPU ebenfalls, wie PCMark7 vermuten lässt. Beim reiner CPU Last bewegt er sich etwas unterhalb des Celeron bis in zu gleichem Niveau, wie imCinebench und das integrierte WinRAR Benchmark zeigen.

    Interessant ist auch der Vergleich zum i3 3220, da dieser zeigen würde, ob durch die weitgehenden Beschneidungen mehr Leistung verloren geht als rein rechnerisch vom CPU Takt her anzunehmen. Da der i3 mit 3,3Ghz taktet, wäre ein Vorsprung vom 27% zu erwarten. Zumindest bei diesen Benchmarks hält der i3 allerdings einen Vorsprung von gut 50%, dabei scheint der WinRar Test einen deutlichen Ausreißer nach oben darzustellen, da hier der Vorsprung sogar 100% beträgt.

    Der hohe Wert des i3s und des A4s in PCMark7 sollten nicht überbewertet werden, da im ComputerBase Test sowohl eine SSD als Festplatte verwendet wurde, als auch eine GTX680 als Grafikkarte. Beides sollte die Punktzahl stark nach oben hin verfälschen.

    Stellt man dem Celeron eine stärkere Grafikkarte zur Seite und steckt einen zweiten RAM-Riegel ein, verbessert sich die Leistung in manchen Bereichen doch durchaus deutlich. Theoretisch sollte der Celeron aufgrund seinen kleinen Caches besonders stark auf aktiven Dual-Channel reagieren. Dies zu testen ist in der Praxis jedoch schwer, da a-priori unklar ist, welches Benchmark wie stark durch die Speicherbandbreite limitiert ist.
  5. Spiele Benchmarks

    Auch wenn der G1610 keine typische Spiele-CPU ist, dürfte wohl doch der ein oder andere Budget-limitierte Computerbastler auf die Idee kommen, dem G1610 noch eine Grafikkarte beiseite zu stellen. Was dabei zu erwarten ist, zeigt die folgende Tabelle. Dem Celeron wurde hier eine Geforce GTX470 beiseite gestellte, sowie ein zweiter 4GB DDR3 1333Mhz Dimm.

    Getestet wurde nach den Methoden der PCGames Hardware, da deren Testmethodik hier inklusive Spielstände überaus genau aufgeschlüsset ist. Es wurde versucht, deren Testablauf exakt zu kopieren.

    Starcraft 2
    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]Min FPS[/td]
    [td]Avr FPS[/td]
    [/tr]
    [tr]
    [td]G1610 (Dual-Channel u. GTX470)[/td]
    [td]12[/td]
    [td]19,9[/td]
    [/tr]
    [tr]
    [td]Xeon E3-1230[/td]
    [td]11[/td]
    [td]26,1[/td]
    [/tr]
    [/table]
    Hier der PCGH-Test mit der gleichen Benchmark Sequenz.

    Crysis 2
    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]Min FPS[/td]
    [td]Avr FPS[/td]
    [/tr]
    [tr]
    [td]G1610 (Dual-Channel u. GTX470)[/td]
    [td]19[/td]
    [td]22,2[/td]
    [/tr]
    [tr]
    [td]Xeon E3-1230[/td]
    [td]21[/td]
    [td]24,5[/td]
    [/tr]
    [/table]
    Hier der PCGH-Test mit der gleichen Benchmark Sequenz.

    Sykrim CPU
    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]Min FPS[/td]
    [td]Avr FPS[/td]
    [/tr]
    [tr]
    [td]G1610 (Dual-Channel u. GTX470)[/td]
    [td]31[/td]
    [td]38,6[/td]
    [/tr]
    [tr]
    [td]Xeon E3-1230[/td]
    [td]54[/td]
    [td]59,8[/td]
    [/tr]
    [/table]
    Hier der PCGH-Test mit der gleichen CPU Benchmark Sequenz.

    Sykrim GPU
    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]Min FPS[/td]
    [td]Avr FPS[/td]
    [td]Max FPS[/td]
    [/tr]
    [tr]
    [td]G1610 (Dual-Channel u. GTX470)[/td]
    [td]39[/td]
    [td]47,6[/td]
    [td]56[/td]
    [/tr]
    [tr]
    [td]Xeon E3-1230[/td]
    [td]43[/td]
    [td]48,7[/td]
    [td]56[/td]
    [/tr]
    [/table]
    Hier der PCGH-Test mit der gleichen GPU Benchmark Sequenz.

    Zunächst einmal das positive, alle Spiele sind mit einer Mittelklassegrafikkarte auf einem Celeron G1610 recht gut spielbar, was für eine <40€ CPU doch sehr beachtlich ist.

    Die Vergleichbarkeit zu anderen Tests ist leider stark erschwert, da mir keine GTX680 oder eine vergleichbar starke Grafikkarte zur Verfügung steht. Auch weichen die Werte von denen der PCGH einigermaßen stark ab, was wahrscheinlich teilweise an mir, teilweise an Patches und teilweise an unterschiedlichen Systemkonfigurationen liegt. Aus diesem Grund wurde auch keine weitere Vergleichs-CPU direkt mit in die Tabellen genommen.

    Bei Skyrim und noch stärker Starcraft 2 handelt es sich zudem um Spiele, die bekanntermaßen besonders CPU-lastig sind. Zudem ist die Benchmarkszene der PCGH, die für Starcraft 2 gewählt wurde, auch eine ziemliche Worst-Case Situation. Da die MinFPS im Starcraft 2 Test durch die schnellere CPU nicht verbessert wurden ist anzunehmen, dass hier stellenweise die GPU limitiert hat. Starcraft 2 ist das einzige Spiel in diesem kleinen Testparcour, für das der Celeron nicht empfohlen werden kann, da es gerade bei großen Schlachten darauf ankommt, dass auch diese noch steuerbar sind, was mit dieser CPU nicht gegeben ist.

    Im Gegensatz dazu deuten die Benchmarks von Skyrim aber an, dass das Spiel in höchsten Details und mit zugeschaltetem AA/AF selbst auf einem Celeron flüssig spielbar ist. Crysis 2 scheint ähnlich gelagert zu sein, es ist klar durch die GPU limitiert, sollte aber in Verbindung mit einer Mittelklassegrafikkarte und leicht reduzierten, aber immer noch hohen Details, gut spielbar sein.
  6. Stromverbrauch & Undervolting

    Der Stromverbrauch ist seit Pentium M Zeiten eine Paradedisziplin der Intel Prozessoren. Gerade für Office PCs kann ein geringer Stromverbrauch nützlich sein, da er die Kühlung deutlich vereinfacht. Falls die CPU in einem Homeserver verbaut wird, spielen auch die Stromkosten eine gewisse Rolle, wobei immer fraglich ist, ob diese im Verhältnis zu den Einschaffungskosten die CPU Wahl maßgeblich beeinflussen sollten.

    Die folgenden Messungen wurden bei Default Einstellungen im Bios durchgeführt.

    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]Idle[/td]
    [td]Idle - Monitor aus[/td]
    [td]Last[/td]
    [td]Idle-Last-Differenz[/td]
    [/tr]
    [tr]
    [td]G1610[/td]
    [td]16W[/td]
    [td]14W[/td]
    [td]30W[/td]
    [td]14W[/td]
    [/tr]
    [tr]
    [td]G530[/td]
    [td]26W[/td]
    [td]22W[/td]
    [td]55W[/td]
    [td]29W[/td]
    [/tr]
    [/table]

    Mit Undervolting konnte auf beiden Plattformen das Ergebnis nochmals deutlich verbessert werden. Bei beiden CPUs konnte die Spannung um gut 0,3V abgesenkt werden. Um näher an das Minimal erreichbare zu komme, wurde zudem die Spannung des Arbeitsspeicher auf 1,2V abgesenkt. Auch gewöhnlicher Billigspeicher sollte im Normalfall ca. 1,2-1,3V erreichen.

    Das der Offset-Mode das Untervolten verkompliziert, da auch die Idle Spannug mit abgesenkt wird und gleichzeitig die CPU sowieso über die C-States größtenteils abgeschalten wird (via Powergating), wurde im Fixed Vcore Modus untervoltet.

    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]VCore[/td]
    [td]Ram[/td]
    [td]VTT[/td]
    [td]GPU[/td]
    [/tr]
    [tr]
    [td]G1610[/td]
    [td]0,82V[/td]
    [td]1,2V[/td]
    [td]1,05V(Standard)[/td]
    [td]1,05 (Standard)[/td]
    [/tr]
    [tr]
    [td]G530[/td]
    [td]0,86V[/td]
    [td]1,2V[/td]
    [td]1,0[/td]
    [td]1,0[/td]
    [/tr]
    [/table]

    Mit diesen Settings konnten die folgenden Verbrauchswerte erreicht werden.

    [table="width: 500, class: grid"]
    [tr]
    [td]CPU[/td]
    [td]Idle[/td]
    [td]Idle - Monitor aus[/td]
    [td]Last[/td]
    [td]Idle-Last-Differenz[/td]
    [/tr]
    [tr]
    [td]G1610[/td]
    [td]14,5W[/td]
    [td]13W[/td]
    [td]25W[/td]
    [td]10,5W[/td]
    [/tr]
    [tr]
    [td]G530[/td]
    [td]20W[/td]
    [td]18,5W[/td]
    [td]35W[/td]
    [td]15W[/td]
    [/tr]
    [/table]

    Einige Anmerkungen sind von Nöten. Das im Zusammenspiel mit dem G530 verwendete Gigabyte Mainboard (GA-H67N-USB3) ist für seinen hohen Standardverbrauch im Idle bekannt. Untervolting kann das Problem zum Teil lösen, trotzdem bleibt das Gigabyte Board besonders im Idle bei einem verhältnismäßig hohen Verbrauch stehen. Ebenso neigt das Gigabyte Board dazu, die CPU etwas zu overvolten. Bei einer Standard VID von 1,125V liegen laut CPU-Z bereits 1,15. Das trifft auch im Untervoltingfall zu, CPU-Z zeigt hier 0,89V. Trotzdem ist der G530 mit 15W bei maximalem Undervolting sehr sparsam.

    Das es noch deutlich sparsamer geht, zeigt der neue G1610. Dieser verbraucht bereits ohne Undervolting bereits lediglich 15W.
    Mit Undervolting kann dessen Verbrauch sogar auf nur rund 10W absenkt werden. Welche Spannung tatsächlich anliegt, konnte leider nicht ausgelesen werden, da CPU-Z die CPU noch nicht kennt.

    Auch hier ist der Vergleich mit AMDs A4-5300 interessant. Da dessen Idle-Last Differenz im CB-Test 46W betrug, wird ein sparsames Gesamtsystem ganz grob bei 60W unter Vollast liegen.
  7. Passiver Betrieb

    Aufgrund des geringen Verbrauchs stellt sich die Frage nach einem rein passiven Betrieb. Leider reicht dies mit dem Intel Boxed Kühler noch nicht ganz für einen Prime95-stabilen passiven Betrieb. Nach Ausstecken des CPU-Lüfters und starten von Prime näherte sich die CPU innerhalb von etwas über 10 Minuten der 75°C Marke, woraufhin der Versuch abgebrochen wurde.



    Da aber Prime weit von normalen Lastzuständen entfernt ist, sollte der passive Betrieb durchaus möglich, falls ein anderer Kühler verwendet wird oder zumindest ein Gehäuselüfter für einen gewissen Luftstrom sorgt.
  8. Video-Hardwarebeschleunigung

    Immer man wieder liest man hier im Forum die Vermutung, dass die Celerons keine Hardwarebeschleunigung beherrschen. Dies ist nicht der Fall und war auch schon beim G530 nicht der Fall. Testweise wurde BigBuckBunny im Gnome-MPlayer unter der Verwendung von Intels VAAPI abgespielt. Dabei bewegte sich die CPU Last grob zwischen 10 und 20%.



    Die Einschränkung im GPU Bereich, die der Celeron besitzt, beziehen sich nur auf Postprocessing (was auch in Software kein Problem ist), 3D-Wiedergabe und QuickSync. Für die reine Wiedergabe von Flashvideos oder gewöhnlichen Bluerays spielt das jedoch keine Rolle.
  9. Als Office PC CPU

    Wer auf der Suche nach einer günstigen CPU für den gewöhnlichen Office Betrieb ist, könnte mit dem Celeron durchaus glücklich werden. Bereits der G530 war schnell genug für Browser, Email und Videos. Auch eine etwas intensivere Nutzung, wie das Browsen mit einer großen Zahl offener Tabs, stellt kein Problem dar. Auch störende Wartezeiten oder Ruckler bei der Bedienung des Betriebssystems konnte ich keine feststellen, weder unter Windows noch unter Linux.
    Damit scheint der Celeron als Office CPU ist der Celeron meiner Einschätzung eine gute Wahl darzustellen, es muss nicht immer ein fast dreimal so teurer i3 sein.
  10. Fazit

    Neue Leistungswunder waren vom Celeron G1610 sicherlich nicht zu erwarten, stattdessen zeigt sich wie bei Ivy Bridge allgemein eine leicht gesteigerte Leistung bei einem reduzierten Stromverbrauch. Der Celeron ist nach wie vor stark beschnitten und recht niedrig getaktet, was dann auch zu recht niedrigen Ergebnissen in den durchgeführten Benchmarks führte. Er liegt dabei auf einem ähnlichen Niveau wie AMDs A4-5300, wobei der AMD Prozessor eine etwas schnellere GPU besitzt, der Intel Prozessor dagegen eine etwas schnellere CPU. Allerdings sind die Unterschiede in beiden Bereichen zu gering, als dass man als potentieller Käufer eine klare Entscheidung fällen könnte, zumal beide Prozessoren auch preislich auf einem ähnlichen Niveau rangieren. Auch wenn die Leistung des Celerons nicht gerade hoch ist, sie ist für Office Anwendungen ausreichend, genauso wie für Video-Wiedergabe.

    Die große Stärke durch den geringen Takt und weitere Beschneidungen erworben wird, ist der sehr niedrige Stromverbrauch. Die angegebenen 55W TDP werden bei mir zu keinen Zeitpunkt auch nur annähernd erreicht. Die Differenz zwischen Idle und CPU-Vollast beträgt lediglich 15W. Falls nochmals zusätzlich 5W Basisverbrauch angenommen werden, würde man damit auf ca. 20W kommen. Das gesamte Testsystem begnügt unter Last mit lediglich 30W, allerdings ist dabei zu bedenken, dass in diesem Zusammenhang das Mainboard eine gewichtige Rolle spielt. Mittels Undervolting lässt sich der Verbrauch sogar noch ein wenig weiter reduzieren. Ob der geringe Stromverbrauch für den Nutzer eine Rolle spielt ist allerdings eine andere Frage. Zumindest im Office Betrieb sollte sich der tatsächliche Stromverbrauch auf einem ähnlichen Niveau wie AMDs A4 Plattform bewegen, da die CPU hier fast nie etwas zu tun hat.

    Eine CPU wurde durch den G1610 vollkommen überflüssig. Der Pentium G2020T sollte bezüglich der Leistung praktisch identisch sein, kostet jedoch gut 20€ mehr. Das einzige Argument, das für den Pentium sprechen sollte, ist die geringe TDP vom 35W. Diese jedoch hält auch der Celeron spielend ein. Einmal mehr zeigt sich, dass Intels TDP Einstufung mehr mit den Wünschen der Marketingabteilung von Intel, als mit dem tatsächlichen Stromverbrauch übereinstimmt.

    Alles in allem hat Intel eine günstige CPU vorgestellt, deren Leistung zwar nicht beeindrucken kann, die aber wohl vor allem dank ihres geringen Preises und auch durch ihren geringen Stromverbrauch in vielen Office-PCs, HTPCs und Homeservern zu finden sein wird.
 
Zuletzt bearbeitet:
@Kraligor: Danke :) Mir kam auch schon die Idee an den G1610 mal meine GTX470 dranzuhängen und mal schauen, was limitiert. An dem SuperPi Test kann man ja einigermaßen erkennen, dass die Single Thread Leistung im besten Fall recht hoch ist. Wenn also ein Spiel nur 2 Kerne braucht, könnte die Leistung überraschend gut sein...
 
Danke für das Review. Für nicht mal 40€ bekommt man hier doch einiges an Leistung.
Interessant wäre jetzt noch einen G2020/G2120 mit in die Tabelle zu nehmen. Ein wenig Mehr Takt und Cache, in Spielen dürfte der einem i3 dicht auf den Versen sein.
 
sehr informativ, vielen Dank :)
hab mal ein G540 in ein Gigabyte z77x ud5h + gtx660ti+oc durch ein benchmark gejagt und da kam dies raus. die taktraten stimmen nicht, aber es lässt sich gut erkennen wie sehr der G540 bremst. im vergleich: ein 377k mit selben komponenten schafft 9600 punkte
 
@deralex89: Die sind dann halt auch wieder etwas teurer, Intel ist leider recht clever bei der Preisgestaltung :)

@Deadsystem: Mhh, sehr interessant. Die 660Ti ist halt eine starke Karte. Ich hätte den Celeron auch in Richtung HD7770 kombiniert. Die Frage ist vielleicht auch, wie relevant der 3D Mark Physics Score ist.
 
ich würd nichtmal eine 650ti damit kombinieren. wenn man spielen will gleich zu einer anderen cpu greifen. dafür ist das gute stück einfach nicht ausgelegt. trotzdem ein super P/L-V
 
Da widerspreche ich. ;) Ich spiele hervorragend mit einem Athlon II X4 3,2 GHz und einer 650 Ti auf 1080p. Der Celeron dürfte bei den meisten Spielen fast an den Athlon herankommen. Natürlich sind keine Ultra-Details und 16x AA möglich, aber selbst neue Spiele sollten durchaus spielbar sein. Für einen Budget-Spielerechner, wie gesagt, halte ich den Celeron für geeignet, zumal man später problemlos auf eine schnellere CPU aufrüsten kann.
 
ich hab nicht geschrieben dass man damit nicht spielen kann, es ist nur nicht ratsam da eine dedizierte graka dran zu hängen. weil das potenzial einer grafikkarte nicht ausgeschöpft wird. und das in einem beträchtlichen umfang und nicht wie bei einem prozi wie i3 oder aufwärts wenige prozent.
 
@misu
Schöner Test! Ich Danke Dir dafür.

@Kraligor
Du kannst doch einen Athlon II X4 3,2 GHz nicht mit einem Celeron G1610 vergleichen. Da sind ja noch einmal Welten dazwischen was Leistung und Verbrauch angeht.
 
misu schrieb:
@deralex89: Die sind dann halt auch wieder etwas teurer, Intel ist leider recht clever bei der Preisgestaltung :)

Das stimmt natürlich. Wenn ich aber wüsste das ein Pentium in Spielen 80% der Leistung eines i3 bringt, jedoch nur die Hälfte kostet, dann wäre das für Sparfüchse doch eine gute Alternative.
 
MikelMolto schrieb:
]@Kraligor
Du kannst doch einen Athlon II X4 3,2 GHz nicht mit einem Celeron G1610 vergleichen. Da sind ja noch einmal Welten dazwischen was Leistung und Verbrauch angeht.

Doch, klar. Schau' dir nur mal die Single-Thread-Performance an, da schlägt der Celeron eben mal locker selbst etliche Phenom II: Klick!
Und auch in der Multi-Thread-Performance liegt der Celeron nur knapp hinter AMDs Vierkernen, wobei bei Spielen eher selten alle Kerne optimal ausgelastet werden: Klick!

Klar, Celeron weckt Assoziationen mit den alten, lahmen Entry-Level CPUs, aber in der heutigen Zeit liefert selbst ein Atom genügend Leistung für viele Anwendungen, und ein Celeron (der nichts weiter ist, als ein etwas beschnittener Sandy Bridge!), ist eine ausgewachsene CPU.
 
Ein ehr bescheidener Test bei total unterschiedlichen System sagt das wenig über die CPU aus.

-

Aber der Celeron war schon immer gut,
inmoment habe ich in meinen HTPC einen Celeron G540 mit 2x 2500 MHz !

Aber im Hauptsystem würde ich ehr einen höhergetakten Pentium G bevorzugen,
bei den "Sandy Bridge/Ivy Bridge" Modelen ist die Leistung so gut das die für fast alle normalen Anwendungen vollkommend ausreichend ist (ausser zum beispiel höherwertige Videobearbeitung).

frankkl
 
Zuletzt bearbeitet:
Denke eigentlich auch, dass die CPU dank ihrer recht hohen Single-Thread Performance gegenüber den Athlon X4s konkurrenzfähig sein sollte.

@frankkl: Verbesserungsvorschläge sind immer willkommen...

Ich reiche auch gern noch Benchmarks nach, wenn Wünsche vorhanden sind, bitte ruhig äußern.
 
misu schrieb:
@frankkl: Verbesserungsvorschläge sind immer willkommen...
Wenn man schon verschiedene CPU miteinander vergleicht dann mindestens mit ähnlichen Systemzusammenstellungen (z.b. Ram,SSD/HDD,Grafik) !

frankkl
 
Schöner Test, mich haben aber auch 2 Dinge ein wenig gestört:

- Es wäre noch schön gewesen wenn man die CPUs mit dem gleichen Chipsatz (B75) getestet hätte. Damit wär die Vergleichbarkeit deutlich besser besser gewesen.

- Das nur wenig Benchmarks vorhanden sind. Den ein oder anderen Gamingbenchmark zu sehen wäre sicherlich für den ein oder anderen recht interessant gewesen.
 
Das Problem an den Spiele-Benchmarks ist, dass ich die Referenzspiele von CB, bis auf Skyrim (da hat CB das Savegame auch nicht verlinkt), nicht besitze. Und bei Standalone Benchmarks ist man dann leider gleich wieder Richtung 3DMark unterwegs...
Ich finde auch die ganzen Rendering/Transcoding Benchmarks, die CB als Abwendungs-Referenz benutzt, nicht besonders nützlich, aber es gibt einfach recht wenige Dinge neben Spielen und Rendering, die eine heutige CPU überhaupt noch richtig auslasten. Jedenfalls kenne ich nicht viele Leute, die den ganzen Tag rendern.
Falls ich es schaffe, teste ich nochmal mit Skyrim, Diablo 3 und Starcraft 2. (Für Referenz-Savegame Vorschläge bin ich offen :))
 
was spricht denn gegen ein 3DMark test?
 
Zurück
Oben