News Benchmarks eines Intel Core i7-3960X Extreme Edition

ok ich muss es an dieser stelle mal wissen:

was genau macht ihr so mit eurem PC, dass ihr ernsthaft darüber streitet, ob ihr von einem core i7 aufrüstet oder nicht?

ich mein ja nur - es gibt unternehmen, die davon profitieren, wenn sie schnelle PCs haben und somit personal einsparen können, weil die bediener mehr in gleicher zeit schaffen.
aber wegen 10 fps in crysis mehr oder weniger mal eben etwa jährlich 1000€ ausgeben?

bitte keine falschen hoffnungen; ich bin mit meinem pc mehr als zufrieden und bin sicherlich kein neidhammel - mir leuchtet dieser aufrüst-wahn nur einfach nicht ganz ein

p.s.: es darf sich angesprochen fühlen, wer das für richtig hält
 
GreatEvil schrieb:
Ein fuer den Kunden sehr teurer Reinfall.

Wieso? 10% Leistungssteigerung (klingen ja sogar realistisch) bei gleicher Strukturbreite und dabei warscheinlich ein leicht gesenkter Verbrauch ist etwas von denen man in der Grafiksparte nur Träumen kann.

Und Gründe für eine solche CPU wurden auch schon genug genannt. Für den Ottonormaluser/Freak/Benchmarker sind die X-CPUs nie gedacht gewesen, daher sollte man als solcher vorsichtig sein was man als sinnlos bezeichnet.
Ich könnte z.B. auch einen Familienvan als sinnlos bezeichnen bloß weil ich keine Kinder habe. Der 4-fache Familienvater würde mir aber einen über den Sinn eines solchen Wagens erzählen können.

PS: Habe bewusst nicht Ferrarri geschrieben da man so einen nicht annährend so dringend brauchen kann.
 
Jojo_44 schrieb:
Müsste den I7 920 aus meinem Arbeitsrechner langsam mal in Rente schicken.

mfg Jojo

i7 920 in Rente? Warum das habe auch den i7 920 der steckt noch alles locker weg (ist halt übertaktet)


Ich habe immer noch die Hoffnung das bei den neuen Sandy Bridge der Preis des 990 fällt der lässt sich ja noch besser Takten :D
Auf ein Sockel Wechsel habe ich noch keine Lust bei mir wird die ganze Sandy Generation übersprungen.
 
Jetzt muss ich wohl tatsächlich bis Ivybringe warten damit ich mich entscheiden kann....

Bulldozer, Sandy Bridge-E oder Ivy bridge ^^
 
RubyRhod schrieb:
ok ich muss es an dieser stelle mal wissen:

was genau macht ihr so mit eurem PC, dass ihr ernsthaft darüber streitet, ob ihr von einem core i7 aufrüstet oder nicht?

ich mein ja nur - es gibt unternehmen, die davon profitieren, wenn sie schnelle PCs haben und somit personal einsparen können, weil die bediener mehr in gleicher zeit schaffen.
aber wegen 10 fps in crysis mehr oder weniger mal eben etwa jährlich 1000€ ausgeben?

bitte keine falschen hoffnungen; ich bin mit meinem pc mehr als zufrieden und bin sicherlich kein neidhammel - mir leuchtet dieser aufrüst-wahn nur einfach nicht ganz ein

p.s.: es darf sich angesprochen fühlen, wer das für richtig hält

Falls du mich damit ansprichst ich habe wie gesagt 5 PCs und rüste ich auf kommt der I7 2600k in den nächsten PC. Hätte ich nur einen PC dann würde ich sicher niemals von nem SB auf nem SBE aufrüsten aber dadurch das die alte CPU in den nächsten PC wandert und vorallem dadurch das ich sowieso Ausgaben brauche um sie von der Steuer abzusetzten kostet mich das im Endeffekt fast gar nichts.
 
Thanok schrieb:
Ich würde auf ~identische Leistung tippen. Der 2600k hat zwar einiges an Leistungszuwachs im Vergleich zur Vorgängergeneration, jedoch waren die Nehalems in Spielen nicht so performant wie die Cores.

[...]

Die Tests die von den neuen Befehlssätzen oder dem neuen Speicherinterface profitieren halte ich hierbei raus, da diese zum jetzigen Zeitpunkt nur dazu dienen die CPU wesentlich besser darstehen zu lassen. Dass AVX&Co bei bestimmten Anwendungsgebieten wares Gold wert sind kann und will ich nicht abstreiten.

Es ist mitlerweile auch bei den "Spielern" angekommen (es hat "nur" zwei Jahre gedauert, Dank schneller Auffassungsgabe), daß die Core-i7 nur deshalb schlechter in Spielen waren, weil ihre Architektur wesentlich moderner als die der C2D ist und sich damit auch die Softwareparadigmen änderten - insbesondere, wenn ich das mal mutmaßen darf, sind die Optimierungen hinsichtlich Cachgrößen bei C2D-optimierten Spielen (nicht zuletzt auch der Threads wegen) voll ins Leere gelaufen.

Überall dort, wo wir die i7 eingesetzt haben und unsere Software schlicht einfach mit einem adäquaten Compiler neu übersetzten, sahen die C2D kein Land mehr.

GreatEvil schrieb:
Klingt wie ein Reinfall.
Ein fuer den Kunden sehr teurer Reinfall.

Warum? Aktuelle Software nutzt in aller Regel nichtmal die neuen Techniken der ersten Core-i7 Generation. Der SPEC2006_fp_rate Benchmark sieht schon mal phantastisch aus, den würde ich gerne noch verifiziert sehen.

Raptor2063 schrieb:
[...]

Zu Eisenfaust, im Medizinischen Bereich setzt man sicher auf andere Techniken, abgesehen davon ist auch hier GPU-Computing ganz stark im kommen. Z.B. lässt sich eine Radon-Transformation wunderbar auf einer GPU rechnen ;)

Ganz sicher nutzt man in der medizinischen Technik andere Techniken. Du scheinst vom fach zu sein.
Hast Du eine Radon-Transformation auf einer GPU implementiert? Wenn ja, verrätst Du mir wie? Nutzt Du CUDA oder OpenCL und unter welchem OS?

Solche CPU´s brauchen:
- Extreme Benchmarker (Beruflich oder Hobby)
- Video/Foto/3D-Freaks, leider unterstützt nicht jede Software GPU-Computing bzw. nicht so wie es sein könnte.
- Freaks (ExtremGamer, Angeber was auch immer - die immer das "Beste" haben müssen)
- Leute die einen Server brauchen

aber letztendlich kann es doch jedem egal sein, wenn jemand die Kohle hat bzw. so eine Kiste braucht (oder meint sie zu brauchen).

Mir wäre es das Wert, 1. hab ich Spaß solche Systeme zu planen und dann umzusetzen und zweitens bringt es mir deutliche Vorteile, wie gesagt von 6 zu 12 oder sogar 16 Kernen und einer höheren Pro-Kern-Leistung , außerdem noch sparsamer - was will man mehr?

Klar denk ich mir auch meinen Teil wenn ich lese, Dual-Sockel-System mit Quad-SLI zum Gaming... aber gut wenn man die Kohle für so einen Spaß hat, warum nicht!

Extreme-Benchmarker - toller Beruf. Gibts den auch in der BRD? Was wäre denn die deutsche Entsprechung? Gibts auch den Berufsstand der Extreme-Overclocker? ich habe Schwierigkeiten diesen Begriff in meinem Pons zu finden, vielleicht ist es ja etwas Neudeutsches.

Extreme-Gamer finde ich dann schon lustig, aber das wird bestimmt kein Berufsstand sein. Darunter stelle ich mir entweder dürre oder fette Stubenhocker nit Akneproblemen und Motorikstörungen, denen frische Luft wie ein Giftgasangriff erscheint. Individuen, die sich nicht mehr normal unterhalten können, weil sie in einer substanzlosen Welt aus verschobenen Elektronen leben und sich einem Kauderwelsch bedienen, das dann Hirnstuhlgang wie "Extreme-Gamer" oder "Extreme-Benchmarker" gebirt.
Photo, Video ... heute ist ja jeder "Künstler" oder "Profi", der mittels Photoshop oder GIMP ein paar Effekte auf ein schlechtes Bild addieren oder "transformieren" kann - dazu braucht man dann in der Regel auch, je nach Datenmenge und Art der Transformation, die Unterstützung der GPU. Daß solche Knipser ihr Leben in digitlaer Form "künstlerisch" festhalten müssen, ist klar. Power to the Bauer.

Angeber paßt schon besser. Klingt für mich wie ein Teil einer reflexiven Relation.

Wums schrieb:
Jetzt muss ich wohl tatsächlich bis Ivybringe warten damit ich mich entscheiden kann....

Bulldozer, Sandy Bridge-E oder Ivy bridge ^^

Wenn Du jetzt noch warten kannst, wirst Du in einem halben Jahr noch immer warten können. Die Not wird wohl nicht so groß sein und ich vermute mal, Dein "Habenwollen" ist nicht von einer Notwendigkeit getrieben. Und wenn Du dann gewartet hast, dann kommt auch fast schon "Haswell". Auf den kannst Du dann auch warten, denn der wird garantiert noch besser.

Der Sandy-Bridge-E Typus, also auch die EN und EP Versionen, spielen in einer anderen Liga als die bereits veröffentlichten SB - und letztlich auch als Ivy-Bridge (denn bis es die LGA2011 Ivy-Bridges geben wird, dauert es noch bis ende 2012). Der Unterbau ist ein anderer, teurer, flexibler, moderner. Der Leistungshunger entsprechend höher.
 
Soweit ich ich das ganze geschehen verfolgt habe wird es doch noch einen 6 Kern SB-E geben mit 12 MB Cache der über einen Freien Multi verfügt.

Wobei ich da von einer bezahlbaren CPU aus gehe.

Sollte es sich bis dahin auf geschlüselt haben das die 8Kerner im 22 NM Prozess auf dem 2011 Sockel laufen werden ich defenetiv um steigen von meinem Sandy 2600K.

Das nächst Projekt wird dan 3 Grafikkarten auf nehmen müssen unter diesen voraussetzungen wird der 2011 Sockel für mich wohl die Beste Option darstellen.
 
schön und wann bekommen wir software die auf die multi core cpus optimiert ist, und nicht wie im moment cpus die sich auf schlecht gethreadete software spezialisiert haben?
 
Also ich kann mich deshalb nicht beklagen ich zocke zur Zeit immer noch BC2 und der 2600K rödelt Ordentlich.
Stellen weisse um die 85 % Load auf 8 Threads.
Bei BC3 wir es Garantiert noch auf wendiger und da sehe ich den 6 Bzw 8 Kerner sehr weit in front.
Ja jetzt kann man wieder sagen ja super nur BC2 !
Wenn man aber kaum was anderes Zockt sind viele Kerne für mich wichtig.
Spätestens bei der nächsten Konsolen Generation wird man wieder einen Ordentlichen Schub erwarten können was viele Kerne angeht.
Heute schon bei DX11 Titeln ist ein Positiver efeckt der auslastung von den Kernen zu erkennen.
Des weiteren gibt es auch genügend professionelle Anwendungen die davon Provitieren.

Wer es nicht haben will muss es ja auch nicht kaufen und kann sich mit 4 Kern oder 2 kern Prozzesoren zufrieden geben .
Die Next gen Grafikkarten werden auch sehr starke Partner brauchen um die die Daten hin und her zu wälzen.
 
Zuletzt bearbeitet:
Also wenn du 8x 85% CPU Last kriegst hast du deine GraKa nicht genug belastet... Was 2xGTX 580 @1Ghz!!??? Vergiss es, dann ist dein Wert eher Realitätsfern weil das GraKa Limit weit nach hinten geschoben wurde. Siehs mal so, der 2600k kriegt dein Gespann noch Problemlos befeuert. Schonmal an Downsampling gedacht?
 
Ja wenn ich Online Zocke will ich die 120 Hertz von meinem Tft auch nutzen das erstmal .
Will auch garnicht unter 120 Fpskommen
bei 120 hertz das geht ganz gut in FullHD 8MSsaa.

Mit Downsampling muss ich auf 85 Hertz runter bei 2560*1440 und auch Dort habe ich Top Load werte und sie sind ja auch nicht immer Konnsatant durch unterschiedliche Scenen liegen die bei 65 % bis 85% Cpu Load bei allen Threads.
Manchmal gibt es auschlege bis zu 90% aber dann auf nur ein Paar Kernen nicht allen.
Bei 2560*1140 4 *mssaa bleibe ich noch knapp über 100FPS bei 85 Hertz Gpu Load nahe zu bei 98% GPU Load mit Afterburner ausgelesen.

Aber das tut nichts zur Sache habe die GTX580 Karten schon fast ab geschrieben und denke schon an Kepler oder die neuen AMD Karten in Verbindung mit BC3.
 
Zuletzt bearbeitet:
na dass sieht mir doch mal nach nem Nachfolger für meinen Q6600 aus =)
 
Eisenfaust schrieb:
Wenn Du jetzt noch warten kannst, wirst Du in einem halben Jahr noch immer warten können. Die Not wird wohl nicht so groß sein und ich vermute mal, Dein "Habenwollen" ist nicht von einer Notwendigkeit getrieben. Und wenn Du dann gewartet hast, dann kommt auch fast schon "Haswell". Auf den kannst Du dann auch warten, denn der wird garantiert noch besser.
Naja in meinem Fall ist es mehr als ein "haben wollen" mein 2 Kerner kommt langsam aber sicher ernsthaft an seine Grenzen. Eigentlich wollte ich mir schon einen SandyBridge-E holen. Wenn sich die IvyBrige aber ersthaft so wahnwitzig extrem übertakten lassen wie Intel meint, dann wird auch nen guter 4 Kerner+HT die nächsten 5 Jahre reichen. Warten tu ich eigentlich auf die 28nm Grafikkarten, und bis die da sind kann doch schonmal ein wenig träumen, oder?
 
Eyefinity schrieb:
2600K vs 990x: http://www.xbitlabs.com/articles/cpu/display/core-i7-2600k-990x.html

Der QX9770 sieht sowieso kein Land da dieser nicht mal ein richtiger 4 Kerner ist. Zur Erinnerung: alle QXXXX Prozessoren von Intel sind nichts weiter als 2 Core 2 Duo Prozessoren auf einem Sockel, da limitiert der Speicherkontroller etc etc. Sobald da 4 Threads richtig druck machen kann der seine theoretische Leistung nie und nimmer einsetzen;) Da hilft auch (erst recht) kein OC!

Das würde bedeuten es wäre zuminest als Linderung besser ihn mit 8x 500 als mit 10x 400 zu übertakten?
 
G3cko schrieb:
Wenn man mal den ganzen Hype außen vor lässt, dann ist ein C2Q besonders übertaktet noch vollkommen ausreichend schnell.

Bei TomsHardwareguid gibt es einen netten Test. Dort sieht die Welt schon ganz anders aus.
http://www.tomshardware.de/x86-Proz...ormance-Effizienz,testberichte-240831-15.html
Lesen kannst du aber schon oder? Und das verstehen was dor geschrieben wurde?
tomshardware schrieb:
Zu diesem Zeitpunkt müssen wir leider sagen, dass AMDs CPU-Kerne lediglich dazu in der Lage sind, einen Pentium 4 oder vielleicht noch die Core 2-Prozessoren aus den Jahren 2006/2007 deutlich zu schlagen. Gegen die aktuelle Core-Familie haben sie jedoch keine Chance.
Wo sieht die Welt denn anders aus? AMD soll zusehen das sie in die Puschen kommen! Aber schnellstens!
 
Zuletzt bearbeitet:
Ja, AMD hängt im moment tatsächlich eher auf dem Niveau der Core2 Serie (schon darüber, aber eben am ehesten zu Vergleichen mit). Mit BD erhofft man sich ja die ersten i7s einzuholen. Inwiefern dies machbar ist, wird sich mit dem Release des BD zeigen.

Wie bereits erwähnt, sollten die Benches echt sein, so hat Intel meiner Meinung nach beachtliche Optimierungsarbeit geleistet.
 
Visualist schrieb:
[...]

Das nächst Projekt wird dan 3 Grafikkarten auf nehmen müssen unter diesen voraussetzungen wird der 2011 Sockel für mich wohl die Beste Option darstellen.

Intels Strategie sieht vor, zuerst den Massen-Spieler-Billig-Markt mit Prozessoren kleiner Plattformen zu versorgen und spater, bei optimiertem und stabilem Produktionsprozeß auch XEON und höherwertigeres Silizium anzubieten. Das heißt von heute an gesehen, daß wir vor Ende 2012 KEINEN 8-Kern Ivy-Bridge sehen werden, da diese Prozessoren wie die Sandy-Bridges der eben besagten besseren Klasse angehören werden.

Wozu brauchst Du drei Graphikkarten?

Visualist schrieb:
[...]

Mit Downsampling muss ich auf 85 Hertz runter bei 2560*1440 und auch Dort habe ich Top Load werte und sie sind ja auch nicht immer Konnsatant durch unterschiedliche Scenen liegen die bei 65 % bis 85% Cpu Load bei allen Threads.
Manchmal gibt es auschlege bis zu 90% aber dann auf nur ein Paar Kernen nicht allen.
Bei 2560*1140 4 *mssaa bleibe ich noch knapp über 100FPS bei 85 Hertz Gpu Load nahe zu bei 98% GPU Load mit Afterburner ausgelesen.

Aber das tut nichts zur Sache habe die GTX580 Karten schon fast ab geschrieben und denke schon an Kepler oder die neuen AMD Karten in Verbindung mit BC3.

Du wirfst sinn- und planlos mit großen Zahlen um Dich. Verstehst Du eigentlich was die bedeuten? Besteht der Sinn Deines HABENWOLLENS nur im Anwenden eines Ausleseprogrammes, daß Dir dickere, bessere und buntere Eier beschert als die Deines Kumpels?

Das Problem langsamer Software ist nicht primär in zu langsamer Hardware zu suchen, auch wenn ich der Meinung bin, daß der Intelsche x86-Müll groß dazu beigetragen hat, daß seit 10 Jahren so gut wie keine echte Innovation und Progression stattfindet. Es passiert das, was Amerikaner typischerweise sehr gut können: das, was sie geklaut oder einmal errungen haben perfektionieren, bis zur Vergasung. Das, was dem Spielzeugmarkt gerade serviert wird, sind Konzepte, auch die Multikerntechnik, die seit einige Jahren, wenn nicht Jahrzehnten, bereits nicht nur als Prototypen existierte.

Das große faule Ei ist aber RAD. Softwarebaukästen für Mittelmaß, das Probleme beim Schreiben des Begriffes "Imperative Algorithmentechniken" hat, wird damit in die lage versetzt Software anzubieten. Ich will nicht wissen, wie viele Bausteine "moderner" Software, die seinerzeit von Spezialisten auf eine i386 oder i486 Architektur optimiert wurden, heute ohne Veränderung in moderner Software mitgeschleppt werden. Compiler können viel, aber eben nur syntaktisch, in der Regel bleibt die Logik und Semantik im Verborgenen.

Wei groß war das Geschrei, als Intel den P4 vorgestellt hatte! Office langsamer als ein AMD Athlon ... Blabla ... Es war weniger lustig zu sehen, daß wir auf Empfehlung eben Athlonen gekauft haben und dann zufällig Tests mit Modellsoftware auf dem P4 deutlich fixer rechnete als auf dem hochgelobten Athlon. Tja, so ist das, wenn "Experten" am Werk sind. Schuld war natürlich die Software, welche mit der Architektur des P4 nicht klar kam, weil sie noch auf die kürzeren Pipelines und andere Kleinigkeiten der PIII optimiert waren. Aber dieser Umstand wurde ja auch bald unter den Teppich gekehrt.

Wums schrieb:
Naja in meinem Fall ist es mehr als ein "haben wollen" mein 2 Kerner kommt langsam aber sicher ernsthaft an seine Grenzen. Eigentlich wollte ich mir schon einen SandyBridge-E holen. Wenn sich die IvyBrige aber ersthaft so wahnwitzig extrem übertakten lassen wie Intel meint, dann wird auch nen guter 4 Kerner+HT die nächsten 5 Jahre reichen. Warten tu ich eigentlich auf die 28nm Grafikkarten, und bis die da sind kann doch schonmal ein wenig träumen, oder?

Warum immer diese Geilheit aufs Übertakten?

Thanok schrieb:
Ja, AMD hängt im moment tatsächlich eher auf dem Niveau der Core2 Serie (schon darüber, aber eben am ehesten zu Vergleichen mit). Mit BD erhofft man sich ja die ersten i7s einzuholen. Inwiefern dies machbar ist, wird sich mit dem Release des BD zeigen.

Wie bereits erwähnt, sollten die Benches echt sein, so hat Intel meiner Meinung nach beachtliche Optimierungsarbeit geleistet.

Die Phenom II mit ihren echten vier und sechs Kernen hatten schon Vorteile gegenüber den C2D CPUs von Intel. Das Problem war und ist nur, daß die meiste Software auf das krude Zusammengetackere der Intel Lösung hin optimiert wurde, was natürlich bei verwendung einer AMD CPU dann eine mittlere Katastrophe ist. Die SPEC Benchmarks der Opteron Serie sahen ganz manierlich aus, wenn da nicht der hohe Stromverbrauch gewesen wäre.

Ich tu mir bei Sandy-Bridge-E mit dem Begriff 'Optimierung' schwer. Die CPU hat den gleichen Kern wie die kleineren Modelle - lediglich der L3 Cache ist größer geworden und das Speicherinterafce breiter. Wenn dies dazu führt, daß die CPU deutlich flotter wird, dann "verhungern" eben im Umkehrschluß die Kerne auf den kleinen Modellen. Unter Optimierung verstehe ich im strengen Sinne, wenn Intel oder AMD die Kern-Logik ändern würden, so daß eine Radizierungsoperation nicht mehr, sagen wir mal hypothetisch 45 taktzyklen, sondern nur noch 39 benötigen würde. Oder die Logik der Sprungvorhersage optimiert werden würde, so daß deren Trefferwahrscheinlichkeit von 94% auf 96% gesteigert werden könnte. Im Moment scheint es Intel gar nicht mehr so dringend nötig zu haben, die IPC der CPU zu verbessern, man hat die Waffe "Turbo". Eine schmutzige Optimierung, denn sie ist wenig sophistisch, als eher brachial. Sicher ist für mich wichtig, was am Ende herauskommt - pro Euro. Aber aus einem technischen Antrieb heraus würde mich schon interessieren, wie so eine CPU von einer Generation zur nächsten bei gleichem Takt, ohne Turbo die IPC verbessert hat.
 
Schöner Post^^
Die Phenom IIs sind meiner Meinung nach am ehesten mit den Core 2 Duos zu vergleichen, denn die schnelleren Core iX sind dafür zu weit von den Phenoms weg.
Die IPC zu verbessern ist im Vergleich zum Takt schwieriger. Deswegen haben Intel und AMD zuletzt auch mehr an der Taktschraube gedreht. Allerdings muss man immer bedenken dass der Takt mit jetziger Technologie nur schwer höher als 4Ghz von Werk gebracht werden kann ohne dabei die Leistungsaufnahme exorbitant ansteigen zu lassen oder die Hauseigene Konkurenz zu sehr in Schwierigkeiten zu bringen. Die IPC wird aber im Grunde von Generation zu Generation angepackt und durchaus ordentlich optimiert. Die Sandies haben z.B. eine teils 15% höhere IPC als die Nehalems, was meiner Meinung nach schon recht beeindruckend ist. Dass der 3960X diesen Wert zu großen Teilen in Mehrleistung gegenüber des Vorgängers ummünzt spricht meiner Meinung nach durchaus für Intel. So kann der Takt in den ohnehin schon hohen Bereichen vorerst niedrig gehalten werden.

Abhilfe gegen das Taktproblem wird wohl erst Ivy mit den Tri-Gate Transistoren bieten. Glaubt man Intel, so sollten die 30% Mehr Leistung bei gleicher Leistungsaufnahme durchaus dazu taugen den Standarttakt einiger/vieler CPUs in die Bereiche von 4Ghz zu bringen. Die IPC wird allerdings bei Ivy vorraussichtlich nur durch leichte interne Optimierungen erhöht. Ich denke die Steigerung wird 2-4% betragen.

Der Turbomodus hingegen, ist für mich mittlerweile weniger Geheimwaffe als Prestigeobjekt. Hauptsache der eigene Turbo kann immer mehr Takt geben, ob das Verhältnis zwischen Verbrauch und Leistung dabei noch passt ist scheinbar egal. Sein wir doch mal ehrlich: Bei den Bloomfields war das Feature hauptsächlich bei schlecht paralelisierten Anwendungen von Nutzen, dies ist im Grunde ja auch gleich geblieben. Was dieses gebooste mit allen Kernen soll ist mir hingegen immer noch ein Rätsel.
Die Lynnfields hatten einen Turbomodus der durch teils sehr Starke Taktsteigerungen richtig was reissen konnte, das ist für mich auch bis jetzt der beste Turbomodus.
AMDs Gegenstück mit der hälfte aller Kerne wirkt für mich eher wie eine schnell zusammengeschusterte Nachmache denn einer geplanten Erfindung. Zwar erfüllt der Turbo seinen Zweck, aber nicht so effektiv wie der der Lynfields.
Dann kam Intels super mega toller Turbo 2.0. Hierbei wird die TDP angeblich nicht beibehalten sondern für maximal 30 sekunden überschritten, die CPU teilt sich diesen mit der GPU.
Wieso soll die Todlangsame HD x000 GPU durch den Turbo nennenswert mehr Power kriegen? Sinn? Bei einer GPU wie der der Lianos ist es durchaus mal zu bemerken, aber bei den Intel IGPs halte ich den für reine Werbung. Gut ohne GPU kann der CPU Turbo regelmäßig gezündet werden, allerdings nur kurzzeitig und die Taktsteigerungen fallen sowohl absolut als auch prozentual gesehen kleiner aus, was sich direkt auf den Leistungszuwachs auswirkt. Eher ein Rückschritt wenn du mich fragst.

Der Ideale Turbo sollte wie jetzt auch eine einstellbare höchstTDP haben, dabei einen Kern richtig stark beschleunigen (Wie BD es ja machen soll: 1Ghz oder vl sogar noch mehr), bei 2/der Hälfte der Kerne sollte dank der inaktiven anderen Häfte noch ein Großteil des Taktes übrig bleiben. Den Turbo mit allen Kernen sollte man zwar drinlassen, aber deaktivierbar machen. Für 2% Mehr Leistung 10% mehr Strom ist mir persönlich zu viel. Aber gut, dass ist nur meine Meinung.
Ich bin vor allem gespannt wie Intel den Turbo der SB-Es einstellt.
 
Du wirfst sinn- und planlos mit großen Zahlen um Dich. Verstehst Du eigentlich was die bedeuten? Besteht der Sinn Deines HABENWOLLENS nur im Anwenden eines Ausleseprogrammes, daß Dir dickere, bessere und buntere Eier beschert als die Deines Kumpels?
@Eisenfaust
:freak:
Jetzt fehlen mir die Worte :o
Ich gehe mal lieber eine Runde heulen habe deine Worte nicht verkraftet.
Jetzt tut sich so gar was beim Scwellkörper:D.
 
C170DAW schrieb:
Nur kurze Frage:

Wo müsste man einen QX9770 auf 4 Ghz gegen einen 2600K non OC und einen 990X non OC in aktuellen Spielen einordnen?

Liegen da mehr wie 50 % zwischen?

der 2600k würde auch übertaktet laufen und wäre auch unübertaktet bei speziellen Anwendungen teilweise über 500% schneller. Unterm Strich aber wird das im Alltag weniger auffallen, vielleicht extreme GPU Geschichten profitieren deutlich vom 2600k, vor allem jenseits der 4GHz.
 
Zurück
Oben