Test Test: Prozessoren 2010

Also für EINE GTX570 langt auch mein übertakteter Q6600.
Wenn ich benche (Vergleich mit GTX570er Tests), dann hab ich die gleichen Resultate wie hier bei CB, obwohl deren Testrechner ein I7 mit 3,8 ghz ist, mein Q6600 hat aber nur 3,2ghz.

Das gilt für Spiele! Bei den anderen Benchmarks kackt der Q6600 ziemlich ab.
Da ich eh meist nur zocke, investiere ich erst mal in eine Wakü (300-400€) und upgrade später, wenn die Preise moderater sind. Finde es erstaunlich dass ein 3,5 Jahre alter CPU noch mithalten kann.

Früher waren PCs nach 1-1,5 Jahren Schrott.
 
Zuletzt bearbeitet:
dcc schrieb:
Früher waren PCs nach 1-1,5 Jahren Schrott.
Naja, der Q6600 ist halt ein Sonderfall. Er hat doppelt so viele Kerne wie ein damals sehr moderner Dual Core. Er hat eine extrem gesteigerte Leistung pro MHz gegenüber den vorherigen Netburst und Co. Katastrophen. Und oben drein lässt er sich mit seiner relativ hohen pro MHz Leistung und den vielen Kernen sowie dem akzeptablen Cache noch um >=50% übertakten. Das ist schon eine Hausnummer. Wehrmutstropfen bleibt nach wie vor der sehr hohe Verbrauch.
 
Die Tendenz, dass Rechner länger genutzt werden (können), gibt es schon ewig.

Erstaunlich finde ich, dass man 2011 bereits im 9. Jahr die 3 GHz Marke überschritten hat (Vorstellung Pentium 4 3,06 GHz: Nov 2002), die 4 GHz Marke aber noch nicht.

Mit SB werden aktuelle CPUs ohnehin obsolet - ggf. lohnen sich noch AMD-CPUs für Lowcost-Rechner, alle anderen dürften dann zu Intels neuen Sprössling greifen.

Naja, der Q6600 ist halt ein Sonderfall.
Na ja, aber selbst ein (hochgezüchteter) E6600 ist heute für Spielerechner ausreichend. Vor einigen Jährchen konnte man mit 3/4 Jahre alten CPUs herzlich wenig anfangen.

vorherigen Netburst und Co. Katastrophen
Dennoch war die CPU Jahre lang die schnellste ... Recht hast du aber, dass der C2D eben ein riesiger Sprung nach vorne war - fast so groß wie AMD bei K6-III auf Athlon.
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Die Tendenz, dass Rechner länger genutzt werden (können), gibt es schon ewig.

Erstaunlich finde ich, dass man 2011 bereits im 9. Jahr die 3 GHz Marke überschritten hat (Vorstellung Pentium 4 3,06 GHz: Nov 2002), die 4 GHz Marke aber noch nicht.

Hat bestimmt technische Gründe. Wird wohl einfach zu viel Wärme produzieren ab 4Ghz und mehr.
 
Intel wollte mit den P IV doch 5 ghz erreichen, wenn ich mich nicht irre. Naja man hat halt gemerkt, dass man bei 3,X ghz an Grenzen stößt.

Fertigungsprozess, Befehlssätze, Cache, multi threading ist ja eher wichtiger als der GHz wahnsinn.
 
Intel wollte mit den P IV doch 5 ghz erreichen, wenn ich mich nicht irre. Naja man hat halt gemerkt, dass man bei 3,X ghz an Grenzen stößt.
Es gab Diagramme, nach denen wollte man 10 GHz erreichen.
 
Das ist wie mit dem Auto.

Es ist einfach günstiger 2 Autos mit 100 km/h zu einer Stelle transportieren zu lassen, als mit einem Auto das 200 km/h fährt.

Natürlich sind die 2 Autos doppelt so schwer als das eine Auto, aber ab einem bestimmten Punkt rückt das Gewicht in den Hintergrund, so das sich 2 Autos mehr lohnen als 1 schnelles
(Der Punkt ist wenn eine gewisse Geschwindigkeit erreicht, ist der Luftwiderstand so hoch (da er im gegensatz zum Gewicht mit dem Quadraht eingeht) das er eine größere Rolle spielt ald das Gewicht .

Schätze mal das das selbe bei den Prozessoren gilt. Da gibts bestimmt ne Komponente die mit dem Quadrat mit eingeht und somit mehr MHz Zahlen unwirtschaftlicher macht als wenn man 2 Cores verbaut und sie nur mit 40% laufen lässt.
 
Zuletzt bearbeitet:
Mich wundert die Leistungsaufnahme. Wie kann eine AMD X6 1100T mit einer GTX580 nur 85W im idle verbrauchen? Scheint mir alles bisschen sehr niedrig.

Ich hab ein X6 1055T mit einer GTX 260 2 HDD's alles auf Standard , Stromspafunktionen ein und komme auf ~120W idle. Gemmessen mit Voltcraft Messgerät.

Wie kann ich so weit drüber sein?
 
Zuletzt bearbeitet:
An der GTX 580 wurden Stromsparfunktionen durchgenommen, soweit ich mich erinnere. Das war ja ein großer Kritikpunkt der vorherigen GTX 480 Karte.

Zumal ist Intel bekannt dafür immer etwas mehr an Watt zu verbrauchen als AMD. Das selbe gilt für die Temps.
 
Zuletzt bearbeitet:
Ein super Test wie eigentlich immer hier! Danke!
Was mich allerdings sehr stört, ist dass ausschließlich aktuelle bzw. modere CPUs getestet wurden. Hier würde mich vor allem der Vergleich zum Core2Duo E8400, Core2Quad Q9550 und Athlon 64 X2 6000+ und eventuell Phenom I interessieren.
Gerade Besitzer eines Core2Duo würden sich sicher interessieren wie sich ihr Prozessor noch so schlägt und wie groß der Sprung zum Core2Quad ist.


@gpanda: jeder Rechner ist anders, du hast vielleicht noch eine Soundkarte und Gehäuselüfter zusätzlich drin. Oder du hast andere Kompnenten. Und wie ampre schon sagte: die neuen Karten sind effizienter als die Vorgänger. Die GTX260 dürfte im 2D-Modus schon 20W mehr schlucken als die GTX580.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Tomahawk schrieb:
So ein Blödsinn! Beide nehmen rund 30 Watt im idle, siehe z.B. http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index3.php

@qpanda
Das isteindeutig zu viel. Ist dein Wert auch ohne Monitor? Ansonsten hast du wahrscheinlich im BIOS etwas falsch eingestellt.

Die 120W sind nur vom PC und im Bios ist alles auf Standard. Es ist halt die ganz alte GTX260 mit 192sp und 65nm, aber die kann doch nicht soviel ausmachen. Die X6 1055t müsste doch auch weniger verbrauchen als die X6 1100T oder?

Sonst hab ich noch 3Lüfter, 2 HHDs und eine Soundkarte. Ist doch alles ziemlich standard.
Was habt ihr den für Werte?
 
Zuletzt bearbeitet:
@gpanda: Die SB850 soll deutlich sparsamer als SB7x0 sein. Ansonten könnten ca. 10-15 Watt durch die 2. Platte (CB nutzt 1x HDD und 1xSSD) und die extra Soundkarte insgesamt kommen. Außerdem nutzt CB ein 87+ Netzteil und low voltage RAM. Da können in der Summe 30-35 Watt Unterschied rauskommen.
@kreisverkehr: Nach deiner Erklärung müsste der i5 760 bei schnellerer Graka bzw. niedrigerer Auflösung immer schneller werden als z.B. der X6 1100. Nun letzter Test (HD5870@ 800x600):https://www.computerbase.de/2010-12...black-edition/29/#abschnitt_performancerating
Der Phenom X6 1100 liegt 21% hinter dem Core i5 760.
Neuer Test (GTX580@640x480 ~ schnellere Graka, niedrigere Auflösung). Selbige Phenom liegt nur noch 15% hinter dem Core i5. Kannst du mir das bitte auch erklären, damit ich es begreifen kann?
@Relict: ich bin auch kein Freund von extremen Filtern, zudem hohes AF auf meiner Karte ganz gut flimmert^^.
@Topic: Übrigens, das Spiele-Performancerating des aktuellen Tests zeigt, dass Games gar nicht auf >4 Kerne optimiert sind, denn ein X6 1100 ist quasi gleich schnell wie ein X4 970.
 
Zitat entfernt.

Ähm? HQ AF bei AMD vs. HQ AF bei Nvidia. Komisch, dass Nvidia hier die besten Bildqualität hat. Also, das AF is schonmal bei AMD NICHT besser. Unter DX9 egal, denn es gibt SSAA mit automatischer LOD-Anpassung. Was gibts unter DX10/11? Mhm, CFAA @ Edge Detekt is zwar toll, aber letztlich hat Nvidia hier das letzte Wörtchen.

Achja: Company of Heroes sagt, dass der i7 stärker ist. Und dass ab ner gewissen Leistung die Grafikkarte bremst...



@ chacha73

Sry, war vllt ruppig im letzten Post. Dieser jetzige Prozessortest von cb ist doch ein komplett neuer Test, so dass der nicht mehr mit den alten Tests vergleichbar ist.
Selbst computerbase sagt im Fazit, dass die Unterschiede zwischen den Prozessoren bei sehr niedriger Auflösungen die gleichen bei hohen sind und nur die Grafikkarte früher limitierte. D.h. nun kann man mit einer stärkeren Grafikkarte nun auch bei einer realistischen Auflösung sehen [ohne Grafiklimit], dass Intel hier wie bei den niedrigen Auflösungen absolut gesehen mehr fps liefern kann. Die Auflösung ist dem Prozzi ja egal, solange man hohe Details nutzt.

Das einzige, was man im Vergleich zu den älteren Tests erkennen kann: Früher hat bei denen die Grafikkarte limitiert, so dass "AMD bei Grafiklimit besser sei als Intel"....
 
Zuletzt bearbeitet von einem Moderator:
mir fehlen wenigstens 1 2 klassiker cpus der letzten jahre wie Q9550 oderso weil viele die cpu haben und sich bei dem test fragen wie gut man noch mithalten kann und ab wann man umrüsten sollte. diese frage kann der test leider nicht beantowrten. war beim grafikakrtentest letztens auch wo mir eine gtx280 oderso fehlte.
ich hab noch einen Q9650 @ 3.6Ghz und der reicht noch locker für alles aus aber so richtig kann ich die leistung zur aktuellen cpus nicht einschätzen- wird wohl noch dauern bis ich mal was neuen kaufe.

aber trotzdem schöner cpu test. :D
 
Zuletzt bearbeitet:
@Topic: Übrigens, das Spiele-Performancerating des aktuellen Tests zeigt, dass Games gar nicht auf >4 Kerne optimiert sind, denn ein X6 1100 ist quasi gleich schnell wie ein X4 970.

Ich möchte dennoch dafür plädieren, dass man nicht immer für sich langfristig auswirkende Entscheidungen wie CPU-Käufe einzig das "hier und jetzt" berücksichtigt. Das wäre nicht sehr sinnvoll, wie ich finde. :)
 
Hardware für die Zukunft kaufen ist aber auch so eine Sache. Man kauft was man jetzt braucht und nicht was man in einen halben Jahr brauchen könnte. Die Entwicklung auf den Gebiet geht zu schnell voran.
 
Das ist durchaus richtig, nur hat sich aus der letzten Zeit bei den "Technologiewechseln" (Single- auf Dual-Core und Dual- auf Quad-Core) immer gezeigt, dass man mit der neueren, kernreicheren CPU längere Zeit tendenziell besser unterwegs ist als mit der Kernärmeren, die zum Kaufzeitpunkt vielleicht noch durchaus ausgereicht haben mag. Der Q6600 ist dafür ein grandioses Beispiel.

Man kauft was man jetzt braucht und nicht was man in einen halben Jahr brauchen könnte.

Das Problem würde ich bei CPUs im Konkreten gar nicht so sehen. Denn: was man "jetzt" braucht, ist ordentliche CPU-Leistung, was man in einem halben Jahr braucht, ist wahrscheinlich noch mehr CPU-Leistung, auch wenn die jetzt benötigte vielleicht noch ausreichen mag. Irgendwann kommt man aber zu einem Punkt, wo man mit dem Mehr an Leistung (z.B. der eines X6) dann doch besser fährt als mit jener eines X4, auch wenn der momentan noch länger reicht.

Daher finde ich es aus Bequemlichkeitsaspekten und ökonomischen Überlegungen heraus sinnvoller, beim CPU-Kauf gleich ein etwas "bulligeres" Modell zu nehmen. Man hat einfach länger etwas davon, wie ich finde. :)

Bei sonstiger Hardware würde ich deiner Aussage aber zustimmen, jodd. :)
 
@jodd
Diese Aussage hört man immer wieder. Grundlegend auch richtig. Doch auch stark abhängig vom eigenen Neukaufintervall und Preis. Aktuell beim X6 bis 1090T ist es zb. so, dass die 2 zusätzlichen Kerne kaum preislich ins Gewicht fallen.
 
... dass die 2 zusätzlichen Kerne kaum preislich ins Gewicht fallen.


Aber eben auch nur von wenigen Anwendungen überhaupt sinnvoll genutzt werden.
 
Zurück
Oben