Test Test: Intel Pentium G6950 und Core i3-530

das mag prinzipiell stimmen, aber die auswirkung in der realität ist da, mal abgesehen von spezialfällen wie z.b. einem htpc, auch nicht sonderlich gravierend und hängt primär vom verwendeten kühler ab

wenn du z.b. einen Arctic Cooling Freezer nimmst bekommst du jeden mainstream prozi für kleines geld leise...

außerdem habe ich ja nicht gemeint dass effizientere cpus schlecht wären, sondern nur das mehr an effizienz mit dem kaufpreis verglichen

wenn jemand wirklich passiv kühlen will spricht ja nix gegen intel...


mfg thomas
 
Zuletzt bearbeitet:
Vielleicht gibts ja auch wirklich den ein oder anderen der lieber ein paar Euro mehr ausgibt für das gute Gewissen ein paar Watt zu sparen.

Interessant wäre dann natürlich wie viel Energie bei der Herstellung verbraucht wird und was da sonste noch so an umweltschädigenden Sachen abfällt, wir kennen das ja von den Vergleichen bei denen dann rauskommt dass ein Neuwagen mehr Energie bei der Produktion verbraucht als man durch die Spritersparniss jemals einsparen könnte.
 
guter test, garnichtmal schlecht der kleine i3. im schnitt 25% langsamer als ein i5 ist für den preis absolut ok.
 
Blutschlumpf schrieb:
Vielleicht gibts ja auch wirklich den ein oder anderen der lieber ein paar Euro mehr ausgibt für das gute Gewissen ein paar Watt zu sparen.

Naja, solange er nichts von dem Marktmißbrauch bei Intel weiß, mag es ja das Gewissen besänftigen...
 
Was hat das mit dem Verbrauch/Thema zu tun ? Oder trollst du nur rum und suchst Streit ?
 
Wieso testet ihr das ganze eigentlich nicht nochmal mit einer HD 4870 oder einer GTX260?

Das fehlt noch mMn!!!!!!!!

Habt ihr sonst noch n Wunsch? Ich finde es z.T lächerlich was hier vorgeschlagen wird -,-
 
Was mich mal interessiert hätte wär inwiefern sich das fehlen von Intels ClearVideo-Technologie bei der Wiedergabe von HD Material mit Hardwarebeschleunigung bemerkbar macht. Oder besser gesagt: Beim Pentium gerade eben wegen des Fehlens der ClearVideo-Technik.
Oder hab ich das im Test einfach übersehen?
 
Stellt sich mir eher die Frage ob man die überhaupt benötigt, aus der Serie wirst du ja keine CPU bekommen die nicht locker 1080p decoden kann ;)

Ob jetzt der Grafikpart mehr Energie benötigt oder der CPU-Part dürfte nur selten nen Unterschied machen.
 
Blutschlumpf: Jein. Klar sollten selbst die popeligsten Celerons ab 2 GHz das schaffen. Allerdings verbrauchen die CPUs dabei massiv mehr als die IGPs. Grund? Die IGP hat dafür eine kleine dedizierte Recheneinheit, die das um Längen effizienter macht als das die Multi-Purpose-CPU je könnte (Beispiel ist der PCIe-Chip, der dir HD-Material mit 100mW Verbrauch dekodiert).

Regards, Bigfoot29
 
Jo da hat Bigfoot recht. Spezialisierte Hardwarelösungen verbrauchen im Vergleich deutlich weniger Leistung als für allgemeine Aufgabe Konzipierte Rechenwerke wie CPUs.
 
Und ?
Lass die CPU mal max 40 Watt insgesammt brauchen, ob die jetzt vom idle ausgehend 5 Watt mehr in der IGP verbraucht oder 10 Watt in der CPU dürfte imo egal sein.

Zudem hast du bei der IGP den Nachteil dass die limitiert sind (DXVA, 5 Ref.-Frames und so).
Ich sehe das ganze eher als eine Notlösung für Systeme die schlichtweg zu lahm sind ums zu decoden (z.B. Atom oder AMD bis K8) oder Mobil-Prozessoren wo 10 Watt mehr nen merklichen Unterschied machen.
Zumal würde ich nichtmal ausschluießen dass der Intel-Decoder hier sich auch an der CPU bedient (oder hab ich das irgendwo überlesen ?).
 
Zuletzt bearbeitet:
Jap und morgen gucken wir ob wir noch ein Board mit AGP finden und schauen wie sie sich mit AGP Karten verhalten und dann gucken wir weiter wie sich noch eine 8800 macht und dann gehen wir rüber zu den 260, 275 und 280 Karten und dann stellen wir diese in den Vergleich zur 5000 Serie und schauen dann noch wie man sich in jeder einzelnen Taktstufe ein Verhältnis errechnen kann. Also schön immer um 1 HZ erhöhen. Bor Leute, seit Seite 3 nur Mist hier und Vorschläge die kein Mensch brauch.

Zitat dan einen zukunftssicheren Sockel und unterstützt keinen Marktmißbrauch

drauf habe ich gewartet *ohne Worte*
 
Du hast den Sinn der Decoder anscheinend noch nicht verstanden. Seit dem P4 ab 2.4GHz (das schließt im Übrigen die komplette K8-Reihe schon mit ein) ist das Dekodieren von HD-Material (damals allerdings nur 720p/i) in Software möglich. Die HW-Decoder hat man nicht entwickelt, um ÜBERHAUPT HD-Fähigkeit des PC zu erreichen, sondern um die Prozessorlast weg von der CPU zu einer dedizierten Recheneinheit zu verlegen, die die Arbeit quasi "für Umme" erledigt. Ob beispielsweise eine K8-basierte CPU bei 800 MHz rumdümpeln kann und nur die Videostrom-Daten durch die Gegend jagen muss oder ob sie am Leistungslimit hängt und damit der Staubquirl abhebt, wenn er es denn könnte, spielt sich nicht im Bereich von 5 W ab. Die handelsüblichen Prozessoren auf dem Markt verbrauchen zwischen 10 und 140W (und alle könnten selber dekodieren). Im Bereich bis 30W ist es sinnvoll, weil die CPU dann aufs Stromsparen ausgelegt ist und damit jedes Watt weniger die Laufzeit verlängert (i.d.R. Schlepptopps). Im Bereich darüber landen wir im HTPC-Markt (bis ~80W) für den das interessant sein könnte. Dort ist Abwärme ein Problem. Ob da dann 80W+15W+0W (CPU+IGP+HD-Einheit) verbraten werden oder 30+18+1 macht dort schon einen massiven Unterschied. Im Bereich über 80W sollte sich die Diskussion ohnehin erübrigen, was da sinnvoller ist. Die Stromrechnung wirds danken. ;-)

Natürlich können Hardware-Verdratungen mit dem technischen Fortschritt nur das Nachsehen haben. Da es aber ohnehin alle Jahre eine neue Kartengeneration gibt, die neuere Versionen implementiert hat, und die Hardware in 95% der Fälle (den Atom also mal außen vor) ohnehin potent genug ist, das auch selber zu dekodieren, kann man das getrost ignorieren.

Gruß.
 
warum steigt der Preis vom i3-530 derzeit? Vor 2-3 Wochen lag er noch bei 94€ Boxed - jetzt über 100€ tendenz steigend :( (beim Händler meines Vertrauens sogar um 10€ gestiegen .. 94 auf 104€)

Wie wird eigentlich der Kühler befestigt? Sind das wieder diese schrecklichen Pinne die man reindrücken muss wie beim 775er Sockel?
 
Planet456235 schrieb:
Man vergleicht keine Äpfel mit Birnen.

Wir haben jetzt Windows 7,und SMT beim Clarkdale.
Ah ja, weil Windows 7 die Spieleleistung/Anwendungsleistung auch so empfindlich anhebt ...
Ausserdem gibt es auch Sockel 775 Prozessoren mit 2x2 Kernen, etwa den Q9550. So viel zum Thema "SMT". Nur mit dem Unterschied, das SMT oftmals nicht ganz so gut skaliert, wie 2x2 DualCores in einem "Prozessor". Wer sich über die Unterschiede von SMT eines Core i3 530 und den 2x2 Kernen eines Q9550 etwa in Spielen informieren will, schaut sich halt die Benchmarks von Anno1404 an und rechnet das hoch. Zusammen mit anderen Core iX Prozessoren die man näherungsweise zum Vergleich heran ziehen kann und die bereits mehrfach auf 4GHz getestet worden sind, kann man sich dann schon einen Reim darauf machen, was die Übertaktung bringt.
Es ist niemandem verboten, selbst nachzudenken. Nörgeln kann jeder.

thomas_003 schrieb:
daher muss ich sagen kann ich den wirbel um die paar euronen nicht verstehen
Das merkt man. Nur so viel: Stromverbrauch bedeutet auch Abwärme. Das wird in jedem Thread/News zu solcher Hardware herunter gebetet.
Und der Strom kommt aus der Steckdose ;)

MfG
 
Zuletzt bearbeitet:
wieso schaltet Ihr bei Games Hyperthreading nicht aus... damit kann doch sowieso keine Engine umgehen.
 
Wie komme ich denn auf einen QPI-Takt unter 4GHz? Ich kann bei mir nur auf 4,4GHz bei 200MHz BLCK stellen.
 
Zurück
Oben