Test Test: Intel Core i3-530/540 und Core i5-661

Status
Für weitere Antworten geschlossen.
@gruffi
Wie ich schon geschrieben habe, spielt es keine Rolle, ob die da X4 getestet haben, oder nicht. Entscheidend ist, das Clarkdale nicht nur bei Prime im Stromverbrauch DEUTLICH besser abschneidet. Genau dazu habe ich den Test verlinkt, für nicht mehr und nicht weniger. Damit ist dein Argument mit Prime-Stromverbrauchsmessung entkräftet und abgehakt.

Deine Whiteliste hast du immer noch nicht verraten. Deine Mankogeflame interessiert mich nicht, da irrelevant. Du klammerst dich an jedem Strohhalm.

@[TLR]Snoopy
Auch für dich noch mal. Den Test habe ich nur verlinkt um das Argument zu entkräften, Intel würde nur bei Prime deutlich weniger verbrauchen. Das ist einfach falsch! Schließlich kann nicht mal AMDs 45W CPU von AMD überzeugen und das in realen Anwendungen. Und Quad-Core AMD-CPUs mit 45W TDP kosten auch schnell über 100 Euro.
http://geizhals.at/deutschland/a429822.html
http://geizhals.at/deutschland/a429828.html

Im CB-Rating ist der i3 530 genau so schnell wie ein 620-er mit 2,6 GHz. Der X4 605e taktet mit lächerlichen 2,3 Ghz
 
Zuletzt bearbeitet:
Das habe ich nie geschrieben, dass Intel bei Prime weniger verbraucht. Das ist auch völlig dumm. Ich habe geschrieben, das man sich fragen soll, wie oft der Rechner einen Prime Zustand erfährt um hier mit 60W Geschichten AMD schlecht zu reden. Bei einem Vergleich indem man locker mal 10W abziehen kann durch die ungleichen Boards.
Alleine der Vergleich High-End Board (AMD) gegen Mittelklasse Board (Intel).
 
Zuletzt bearbeitet:
Ich weiß, dass du das nie geschrieben hast und es völlig dumm ist, aber gruffi hat angemerkt, das ja hier mit prime getestet wurde, wonach es angeblich nichtssagend ist, was einfach schwachsinn ist, was wir hiermit nachgewiesen haben. Da hast du dich eingeschaltet und hast über den Preis diskuttiert, aber da schneidet der X4 605e noch schlechter ab.

Und THG hat auch zwei vergleichbare Boards H55 vs. 785G, ließ doch einfach noch mal alle letzten Beiträge, bevor du dich an der Diskussion beteiligst.
 
Zuletzt bearbeitet:
@Athlonscout

manman man, der SI ist einfach im GPU package weil die GPU diesen braucht um ordnetliche Performance zu liefern, wieso hat wohl deine Graka GDDR5 256Bit und massig Bandbreite?
Für Intel war schlichtweg die Frage da wohin damit. Wenn die GPU davon 30 mal mehr als die CPU profitiert dann kann man die Entscheidung doch nachvollziehen!

Habs grad mal getestet:

Also DVI + HDMI is problemlos möglich, HDMI läuft sauber und schnell, erkennt sofort den TV. Hab kein einziges mal in den Intel Treiber bisher geschaut.
Ich würd sogar fast annehmen dass eventuell sogar VGA+HDMI+DVi geht... kann ich testen wenns jemand wissen will.

Auch kann man am HDMI jede desktoptypische Auflösung wählen, also 1680x1050 zB.

Außerdem lief die Erkennung weit schneller als von allen ATI 4XXX und Nvidia Grakas die ich bisher hatte. Sofort richtige Auflösung, Up/Downscalung garkein Problem. Alles bei Win Server 2008 R2 und 64 Bit.
Dh der Win 7 64Bit Bug der im CB Test angesprochen wird ist wohl schonweg mim neuen Treiber von heute.

Edit:

Und ja, der i3 / i5 ist numal effizienztechnsich Haus hoch über allen AMD! Das braucht man garnicht keinreden. 21.5 W idle hab ich mit 3,52Ghz - 75W vollast!
Ist aber auch kein Wunder Intel fährt halt 32nm und der G45 ist nicht so überladen wie die GPUs von AMD / Nvidia die auch Augenmerk auf Spieleleistung legen. Jedem das seine also.

Und nein, ein X4 600e zb hält auch nicht ganz mit. Bei den sparsamen 4 Kernern mit 45 W steht AMD zwar besser da, aber wird trotzdem nichtganz an die Core i3 / 5 Serie rankommen. Kann man aber auch nicht erwarten bei 45nm.
Und ja ich hatte beide CPU hier, genau wie ein X2 ein X3 .... Ein 740G ein 785G Board und hab alle bis ans limit untervolted und untertaktet.

Und das jetzige Sys bei 21,4W und 3,52 Ghz ist nicht untervoltet. Nur der Ram der nicht wie spec auf 1,3 sondern 1,4V läuft... also eher übervolted ^^
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@Athlonscout

manman man, der SI ist einfach im GPU package weil die GPU diesen braucht um ordnetliche Performance zu liefern, wieso hat wohl deine Graka GDDR5 256Bit und massig Bandbreite?
Für Intel war schlichtweg die Frage da wohin damit. Wenn die GPU davon 30 mal mehr als die CPU profitiert dann kann man die Entscheidung doch nachvollziehen!


Das ist nur eine reine Vermutung deinerseits. Bin mal gespannt, wenn ich das nächste mal durch nen Saturn/MM schlendere (was äusserst selten der Fall ist), wieviele Clarkdales ohne diskrete GPU angeboten werden! Denke die Anzahl wird gegen 0 tendieren.

Und nein, meine Graka hat GDDR3 und ein 448-bit SI aber trotzdem massig Bandbreite.
 
richtig. Vermutung, aber weit logischer wie dass Intel wegen 32nm und der neuen Fertigung das SI in die GPU verlagert... siehe Gulftown, da packt man auch mal eben 6 Kerne + 3 Ch SI auf 32nm...

Aber wenn du irgend jemand fragst ob bei GPU oder CPU höhere Speicherbandbreite erforderlich ist dann wird sicher die GPU als Antwort kommen...
Nur leider weiß ich keinen Weg wie man beim GMA die Bandbreite messen könnte.
Aber schau doch mal die GPU an. Was wurde an der verändert? Fast nichts... eben. Und warum ist sie mehr als 3 mal so schnell als der alte fast gleiche GMA? Si vllt?

Außerdem ist man ja nicht mehr FSB Opfer. Die Bandbreite ist schon hoch genug für einen DC - und die Latenz fällt wohl vergleichsweise gering ins Gewicht.
 
Zuletzt bearbeitet:
Naja der Takt wurde erhöht.

Eine langsame GPU hat von massig Speicherbandbreite (was hier nur bedingt der Fall ist im vgl. zu diskreten Lösungen) wenig bis gar keine Vorteile.

Der Grund warum zuerst der Clarkdale auf den Markt gekommen ist, dürfte das verfeinern des noch neuen Fertigungsprozesses sein. Auch Intel kann da die Gesetze der Branche nicht außer Kraft setzen (neue feinere Fertigung = vorest vergleichsweise schleche Yields).
 
Wie ich schon geschrieben habe, spielt es keine Rolle, ob die da X4 getestet haben, oder nicht.
Doch, das IST entscheidend. Ein X4 würde in dem Test bezüglich Energieeffizienz auch bedeutend besser abschneiden. Brauchst dir ja nur mal die Ergebnisse hier bei CB anzuschauen. Da ist das X4 620 System 23% schneller als das X2 550 System, braucht aber nur 11% mehr Strom. Und das THG Setup ist noch stärker auf Multi-Core ausgerichtet. Es sollte einem schon zu denken geben, dass das E8600 System bei THG sparsamer als das X2 240e System ist. :rolleyes:
Dein sinnloses Hypen kannst du dir daher sparen. Das ist weder sachlich noch objektiv. Clarkdale IST energieeffizienter, aber weder gewaltig noch haushoch überlegen oder was sonst noch für Superlativen verwendet wurden. Und das muss man mit einem teureren Plattformpreis erkaufen.
 
um den Platformpreis gehts doch garnicht...
Intel wär ja auch schön doof mit 32nm ne CPU zu bauen die ineffizienter ist. Mein Clarkdale braucht standard mit 1,2V auf 3Ghz 68W load das ganze System. Das schafft der X4 600e auch ungefähr. Bei 2,1 Ghz halt.
Nur bin ich gespannt was der Clarkdale bei unter 1V für 3 Ghz braucht. Was mit ein bisschen Glück gut machbar sein sollte.

@Athlonscout

das war nur ein Tick und Clarkdale Sampels laufen seit Juni wunderbar. Selbst die 6 Kerner gibst seit August unter Ladentisch. Selbst Intel sprach im November von hervorragenden Yields. Sicher hast du recht und es ist mit ein Grund.
Aber überleg mal wie die alte GMA angebunden war an den Ram. Da konnte man nicht viel reißen, vllt war sogar genau dass ihr Problem.

http://en.wikipedia.org/wiki/Intel_GMA

Mehr Takt? Die GMAX4500 vom G45 hat 900 Mhz, die neue 733...
 
Zuletzt bearbeitet:
@gruffi
Schau dir den Stromverbrauch an. X2 240e 45W TDP > mehr als Core i3
Schau dir den Preis an: X4 605e 45W TDP > mehr als Core i3
Schau dir die Leistung an: Core i3 im CB-Rating ähnlich schnell wie X4 620 und damit deutlich schneller als X4 605e

Es ist völlig egal, ob da ein X4 drin ist oder nicht, den ich sehe dort den Verbrauch und hier die Leistung. Und wenn dir THG nicht gefällt, dann poste deine Whiteliste, deine Internetseiten, die nicht zu gunsten von Intel testen. Das habe ich dir jetzt schon zum dritten mal gesagt, mal sehen wann es dein Gehirn endlich erreicht. Alle Tests abzuwenden ist weder Sachlich noch objektiv.

Zumal wir THG auch gar nicht brauchen, schließlich hat auch Krautmaster bestätigt, dass das System mit 45W TDP gelabaltem X4 600e mehr als das Core i3 530-System verbraucht und CB sagt, dass der Core i3 530 mit dem Stromfresser X4 620 95W TDP Leistungsmässig mithalten kann. ;) und X4 605e ist nicht billiger. AMD hat nichts vergleichbares zum Core i3 530 was Leistungsmässig, Verbrauchsmässig und vom Preis mithalten kann. AMD sollte anfangen alle Athlon II mit 65 W TDP auszuliefern und das am besten seit gestern...

Weiterer Test
Stromverbrauch bei 3DMark: http://www.hartware.de/review_1040_6.html

Core i5 661 deutlich sparsamer als alles andere unter Last, der im Gegensatz zu Core i3 530 schneller getaktet ist und dami mehr als Core i3 530 verbraucht, dabei schneidet das verwendete AMD-Board bei 3DMark im vergleich zu anderen AMD-Boards am besten ab: http://www.hartware.de/review_861_5.html

30 W mehr als der Core i5 braucht der X3 705e für knapp unter 100 Euro auf diesem recht sparsamen Board und leistet weniger, schließlich leistet Core i3 530 für knapp unter 100 Euro im CB rating mehr als ein X3 720...
 
Zuletzt bearbeitet:
Sorry, bin mit den Intel IGPs nicht so bewandert, interessiert mich aber auch nur äusserst periphär.

Bzgl. der Yields sei dir nochmal #132 ans Herz gelegt.
Herstellerangaben zu Yields (frage mal bei Nvidia nach wies mit 40nm aussieht- die werden dir da auch sagen: wunderbar, alles in Butter) sind immer mit Vorsicht zu genießen.
 
genau wie TSMC ? ;)
Naja gäbs Probleme hätten wir wohl keine unzähligen ES im Umlauf und keine breite Verfügbarkeit von massig neuen CPU. Man launched keine 18 neue 32nm CPUs wenn man Probleme mit der Fertigung hat ^^
 
Zuletzt bearbeitet:
Ja gut das ist schon klar, Aber der Clarkdale ist ja schon dermaßen klein im Vergleich zum Gulftown, der selbst in 32nm ein Oschi ist. Auch ein SI hätte daran wenig geändert.

Dass man nicht mit großen Chips anfängt ist klar, aber ein SI wäre sicher verschmerzbar gewesen. Ich glaub auch nicht dass Intel jeden 2. Gulftown wegwerfen kann...

Um die 45nm Produktion weiter gut auszulagern und die 32nm Produktion zu testen hat man auch schließlich das ganze GPU Paket gleich in 45nm fertigen lassen. Hätten ja auch 32nm sein können, theoretisch.

Intel hat für sich natürlich die profitabelste Lösung genommen, was nicht zwangsläufig heißen muss dass der Grunde hierdurch im Nachteil ist.
 
Wäre natürlich deutlich besser gewesen alles auf einem Die in 32nm unterzubringen und die Produktion entsprechend später anzuwerfen. Gerade die Intel-affinen Boardies betonen ja immer, dass Intel Lichtjahre der Konkurrenz voraus wäre, insofern sollte da ja nicht der riesige Zeitdruck geherrscht haben.

Scheint auch entwicklungstechnisch gar nicht allzu einfach zu sein, AMD arbeitet da ja auch schon länger dran.

So wie Clarkdale jetzt umgesetzt ist, wirkts halt, auf mich zumindest, etwas halbgar.
 
Zuletzt bearbeitet:
das mag es ja sein, aber Intel wird sich wie AMD sicher seit nem Jahr mit Fokus auf die Sandy Bridge Entwicklung konzentrieren welches ja eben dieses verwirklichen soll.
kann mir persönlich auch nicht vorstellen dass ein Single DIE schwer gewesen wäre, nur minimal teurer und riskanter. Ob die Verdrahtung nun über die DIE geht oder über Leistungen auf dem Board is doch wayne oder...
 
Den Speichercontroller direkt an CPU und GPU anbinden und nicht über QPI und damit die GPU zu integrieren hätte natürlich mehr Entwicklungszeit und Testzeit gekostet. Den 32nm Prozess auf CPU UND GPU zu optimieren ebenfalls. Intel hat sich für schnelles Time-to-Market entschieden.
 
sagt der der Athlon in seinem Namen stehen hat - ein Produkt einer Firma dass seit 2005 keine wirkliche Änderung mehr erfahren hat...
Intel hatte den ersten Quad mit einer 2 Chiplösung, AMD den ersten Nativen. Vorteil = 0.
Wo soll der Vorteil von GPU / CPU auf einem Chip sein? Vermutlich geht er auch gegen 0.

Da begrüße ich doch gern Intels Entscheidung mit, wenn's nach dir geht, halb-garen Lösungen technisch vorzulegen...
 
Der Vorteil einer integrierten GPU und der direkten Anbindung an den Speichercontorller statt diesen über QPI anzubinden wären kürze Latenzen zum Prozessor und damit noch mehr Performance. Schnelles Time-To-Market egalisiert aber diesen Nachteil, schließlich sind später auch schnellere Konkurenzprodukte am Markt.

Die Grafik mit dem Controller in das Chippackage einzubinden, statt es in der Northbridge zu lassen bringt hingegen keine Vorteile für den Consumenten. Für Intel hat es den Vorteil, dass Integrierte GPUs anderer Hersteller nicht mehr wirtschaftlich sinnvoll angeboten werden können.

AMDs Fusion-Lösung, wenn sie kommt, hat zudem den Vorteil das auf CPU und dem GPU-Kern OpenCL ausgeführt werden kann. Sequentielle Aufgaben können von der CPU übernommen werden, Datenparalle Aufgaben von der GPU. Man braucht dann nur entsprechende Softwareunterstützung und das encodieren und rendern wird deutlich schneller und günstiger für den normalen Konsumenten, wenn AMD Fusion so umsetzt, wie geplannt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben