Test Test: Intel „Ivy Bridge“

Aus diesem Grund ist diese Prozessorgeneration ein Experiment auf Kosten der Kühler-Hersteller, die nun Ihr Kühlerdesign auf eine punktuellere Kühlung umgestalten müssen, um die hohe Wärmedichte zu kompensieren. Das ist jedoch sehr schwierig.

Das ist Unsinn .
 
BTW: hat jemand nochmal was von AMD gehört? Schon traurig.

Bauen die nicht ziemlich gute Grafikkarten?
Passen bestimmt gut zum IB ;)

Aus diesem Grund ist diese Prozessorgeneration ein Experiment auf Kosten der Kühler-Hersteller, die nun Ihr Kühlerdesign auf eine punktuellere Kühlung umgestalten müssen, um die hohe Wärmedichte zu kompensieren.

Was heisst Experiment?
Die Kühlerhersteller wussten was auf sie zukommt und darum gibt es auch diese Monster von Luftkühlern.
Von so leisen Luftgekühlten Rechnern wie heute hat man früher geträumt!
Da musste es schon der Delta Black Label sein, um vernünftige Temps zu erreichen!
 
Zuletzt bearbeitet:
Fischkopp schrieb:
Im Fazit in dicken Lettern wäre das wohl besser gewesen, wenn man sich die Kommentare zu den Preisen hier im Thread ansieht :rolleyes:

Nunja, CB kann ja nichts dafür wenn das Bildungssystem versagt bzw. die Leute den Artikel nur überfliegen und dann rummeckern ;)
Vielleicht sollte man bei kommenden großen Tests dieser Art die Kommentare für 30 Minuten sperren, dann verhindert man bestimmt einige sinnlose Posts
 
@Fischkopp

Es bleibt für den Verbraucher ein Trauerspiel - keine Konkurrenz auf dem CPU-markt.

Und intel wird garantiert die Preise des SB nicht senken. Eher fließt der Rhein flußaufwärts.
 
Zuletzt bearbeitet:
@Flipper 44
So gesagt auch richtig :)

@Voyager
Ganz unrecht hat er nicht, wenn unsere coolingmegapros auf handwarme CPUs bestehen.

Wenn man hingegen einfach den Gedanken auschaltet, daß alles über 45 Grad HEISS ist, dann ist plötzlich alles ganz relaxt... die CPU darf 105 Grad bekommen... also lasst sie doch auf 80-90 Grad rauf beim Volllasttest...
 
Simon schrieb:
Nichtsdestotrotz wird man bei Intel einigermaßen ruhig schlafen können. Solange der Einstiegsquad das Topmodell der Konkurrenz problemlos in Schach halten kann und dabei das komplette System nur die Hälfte an Strom aus der Steckdose zieht, ist noch alles im grünen Bereich.

Du meins das komplette System, wenn bei den AMD Systemen ein gefräßiger Chipsatz hergenommen wird?
Ja dann kann das schon so sein.
Intel hat die Performance in etwa um 5 bis 7% nach oben geschraubt.
Eigentlich eine einladung an AMD wieder deutlicher aufzuholen.
Insgesamt siehts für AMD zumindest bei der absoluten Performance wieder besser aus. Vishera dürfte nach aktuellem Stand immerhin fast 30% auf den Bulli draufpacken.
 
cornix schrieb:
Ähh, ich glaube das stimmt so nicht. Guck dir mal die Balken bei pcgh an - da ist ein E8400 mit dabei.

Das sind, je nach Spiel, schon ca. 100-150%.

Außerdem darfst du nicht vergessen, dass der i5-3450 noch bis auf ca. 3,9Ghz übertaktet werden kann.

Für mich ist der 3450 auch der kommende Prozessor. Dazu ein schönes Z77-brett.

BTW: hat jemand nochmal was von AMD gehört?:D Schon traurig.


Ok, danke. Da hatte ich wohl die falschen CPUs im Kopf, welche mit meiner vergleichbar wären.

Trotzdem ist mir gerade aufgefallen, dass etliche Spielebenchmarks auf PCGH nicht mit meinen Erkenntnissen Übereinstimmen. z.B. Dirt 3 und Skyrim (die hab ich zufällig) und ich hab in beiden Spielen fast durchgehend 60 FPS sehr selten mal in Skyrim kurzzeitig 30 oder an aufwändigeren stellen 40 FPS. Dies steigert sich aber, wenn ich mein SSAA auf MSAA reduziere und somit (offensichtlich) die Grafikkarte entlaste - die dann auch wieder kühler wird...

Nun weis ich nicht mehr, was ich davon halten soll. Alles nur absolute Worst case benchmarks?

Die Benchmarks von Computerbase würden da schon eher meinem PC entsprechen. Wenn ich mir nurmal den Skyrim Benchmark ansehe und die Szene nachstelle komme ich auch auf ca 40 FPS minimum und 80% der Zeit hab ich 55-60 FPS @ vsync. Wäre vsync aus würde sich das sicherlich bei 60 FPS einpendeln.

Das würde mit der von mir vermuteten vergleichbaren CPU übereinstimmen nämlich AMD A6-3650. Der I3 2120 mit 2x 3,30 Ghz wäre 20% schneller. Dieser ist aber bis auf das HT ähnlich schnell wie mein E8400 auf selben Takt. Ich glaube mich zu erinnern, dass das keinesfalls mehr als 10% unterschied zu meiner waren, kann mich jetzt aber auch irren. Trotzdem hab ich durch die Wahl des AMD als vergleichbare CPU nochmals 10% zusätzliches "polster". Muss also schon ungefähr hinkommen. Zumal mein E8400 mit 3,6Ghz läuft (teilweise lass ich ihn auch auf 3,9 laufen)

Nichtdestotrotz bleibt die Vergleichbarkeit sehr schwer, da aktuelle Anwendungen und Spiele mehr Quad Cores unterstützen und daher die Ergebnisse stark verschieben. Wenn ich nen alten Test zur Hand nehme, wäre mein E8400 auf 3,6Ghz genauso schnell wie ein Q9550. Was heute nicht mehr so ist. Es bleibt aber der Eindruck in Spielen. Und der deckt sich mit denen von PCGH eben mal gar nicht. Daher werd ich mir das vergleichen jetzt einfach sparen und erst aufrüsten, wenn die FPS CPU bedingt in mehr als 1 oder 2 Spielen dauerhaft auf unter 40-50 FPS absacken.
 
Zuletzt bearbeitet von einem Moderator:
Numrollen schrieb:
Woher hat CB diese Preise? Ich sehe bisher kaum Händler und wenn dann alle deutlich über den Preise die hier angegeben wurden. Die K Modelle habe ich 240€ und 325€.
Mir klar, die Preise werden "warscheinlich" fallen aber wie weit? Dieses ganze Preis / L / V Gerechne haut doch trotzdem aktuell nicht hin.
Nach diesem Post hab ich mal nachgerechnet. CB hat wohl den Listenpreis genommen plus ca. 10% für die Amy-Steuer genommen und gut ist(aber das ist Steuermäsig noch zu wenig da bei uns ja 19%), dann bin ich bei ca. 190 Euro mit unsere Mwst und dann ist immernoch meist eig. ein kleines plus vorhanden bei der Hardware.
Edit: für meine Rechnung habe ich den 3570k genommen für 212 Dollar
 
Zuletzt bearbeitet:
@Cornix:
Naja mal abwarten bis der BD 2 kommt.
Es dürfte ja AMD nicht entgangen sein das Intel im High-End Bereich alles abräumt und das wird sicher nicht AMDs Ziel (Wobei ich das FX nach wie vor eine Frechheit finde!)
Aber wenn der BD 2 mit den I7 aus der IB/SB Reihe konkurrieren kann, ist ja viel erreicht!
Der Markt dürfte um ein Vielfaches größer sein als der in dem sich die SB-Es tummeln und viel Profit wird da sicher auch nicht gemacht!
 
Zuletzt bearbeitet:
xycgerry schrieb:
Eigentlich traurig,
Ich könnte Wetten wenn Amd mit Bulldozer was Perfomance angeht in allen bereichen führen würde,
hätten wir Heute die Vorstellung eines Six Core Ivy Bridges erlebt mit noch mehr Ghz und 125 W TDP.
Ich glaub, dann hätten wir schon fast Haswell in den Regalen...
Wenn Intel unter Druck stünde, würden die wahrscheinlich einiges mehr schaffen. Konkurrenz belebt halt den Markt.

@Topic: Ich versteh den Aufschrei hier nicht. Was erwartet man von einer Weiterentwicklung der Architektur? Zumal vom Marktführer, der Meilenweit Vorsprung vor der Konkurrenz hat. Da behält man seine Asse schön im Ärmel und gibt dem Markt häppchenweise.

Da die Leistung für 95% der Nutzer schon bei SB locker gereicht hat, wird man jetzt wohl eher die Effizient etwas steigern als die Leistung, und die paar OCler (die vermutlich unter 1% der Käufer ausmachen) interessieren da herzlich wenig. Deshalb wird man nicht anfangen, ein größeres Die zu verbauen, wenn man im Normalbetrieb (und alles andere kümmert den Hersteller herzlich wenig) noch 40K Luft hat.

Alles in Allem wie erwartet. Evolution statt Revolution, dafür konsequent und ohne Fauxpas.
 
OK wer einen SB hat der braucht nicht umbedingt was neues. Wer keinen hat sollte sich aber ab heute keinen SB mehr kaufen, da überwiegen doch die Vorteile trotz des noch bestehenden Preisunterschieds der sich sicher aber noch abschwächen wird. Richtig interessant wirds dann in 5 Wochen wenn die ersten Mobil-Ivy Bridge erscheinen. Für Gelegenheits-Zocker besteht dann nämlich eigentlich kein Grund mehr ein Notebook mit extra Grafikkarte zu kaufen, die 4000er Grafik reicht da für das meiste sehr gut aus. Die Akkuleistung wird auch provitieren. Jetzt müssen nur die Ultrabooks noch preislich etwas nachgeben. :)
 
@laggy.net

Also ich finde, der Vorsprung ist schon beachtlich. Aufrüsten lohnt sicherlich.
Außerdem ist das Teil ja für den Enthusiasten so eine Art Statussysmbol: die Times unter den Prozessoren:D
 
@Wintel
Der Cipsatz frisst bei Intel und AMD A8/6 im Idle das gleiche, 56W, der FX ist der böse Fresser mit 72W idle.
Chipset unter Last weis ich nicht.
Aber es ist nunmal so, daß in diesem Test der schnellste AMD um 80W mehr braucht als der i7 3770K und um 100W mehr als ein noch immer viel schnellerer i5 3450, der auch ohne "K" auf 3,9/4,1 Ghz zu takten geht per Bus/Turbo.

@Laggy.NET
Was Spiele angeht, ist die CPU meist EGAL für die Spielbarkeit an sich, mit 4/8X AA usw. knallt jedes Spiel ins Graka-Limit, gut.. mit einer GTX 680/690 stimmt das so nicht mehr da muß schon auch zumindest ein i5 760 her.
Aber bei einer GTX 560ti/ ATI 5870 usw... da tuts ein Dualcore oder X4 meistens.

Sieh dir dazu den Test an GPU braucht CPU Teil 1.
 
Zuletzt bearbeitet:
AMD hat ja eh gesagt, dass sie sich mehr auf die APUs konzentrieren wollen. Mir ist das auch scheiß egal, wenn das Flagschiff von AMD nur so schnell ist wie ein i3, WENN es zu fast gleichem Preis kommt. Dieser virtuelle Schwanzvergleich kotzt mich langsam an:
"CPU X von Intel ist besser als AMDs Y, also ist mein Intel Z auch besser."
oder: "Aber Intel hat die schnellsten Prozessoren, also kaufe ich nur Intel!"
Aber wenn der BD 2 mit den I7 aus der IB/SB reihe konkurrieren kann, ist ja viel erreicht!
Solange der Preis stimmt...
 
Flipper44 schrieb:
Aus diesem Grund ist diese Prozessorgeneration ein Experiment auf Kosten der Kühler-Hersteller, die nun ihr Kühlerdesign auf eine punktuellere Kühlung umgestalten müssen, um die hohe Wärmedichte zu kompensieren. Das ist jedoch sehr schwierig.
Und was sollen die Kühler-Hersteller jetzt noch verbessern? Mit Kupfer haben sie ja schon das Metall mit der besten Wärmeleitfähigkeit gefunden. Nur Silber wäre noch geringfügig besser, aber diese paar Prozent würden den Preis kaum rechtfertigen. Auch Diamant ist für den herkömmlichen privaten Computer kaum relevant.

Seit Kühlkörper-Hersteller mit Kupfer-Heatsinks und Kupfer-Heatpipes arbeiten, hat sich ja am grundlegenden Problem, welches sich nun mit dem 22nm Shrink so richtig bemerkbar gemacht hat, kaum etwas geändert. Die grundsätzlich mögliche abgeleitete Wärme vom CPU-Die hat sich ja schon seit Jahren nicht großartig geändert, weil da nach dem Wechsel auf Kupfer auch keine große Optimierung mehr möglich war. Die Kühlerhersteller haben im Laufe der Jahre aber immer größere Tower und Lüfter gebaut, um die Wärme besser an die Luft im Gehäuse abgeben zu können. Das ist zwar toll, es spielt in dieser Situation aber eine nebensächliche Rolle, weil die gesamte produzierte Abwärme ja ständig abnimmt (125W -> 95W -> 77W).

Was den Kühler-Herstellern also bleibt, ist die Erforschung neuer Technologien, um die Abwärme von einem immer kleiner werdenden Bereich zu transportieren. Mit herkömmlichen Metallen lässt sich das nicht mehr optimieren, also muss man entweder an der CPU selbst Hand anlegen (zB Heat-Spreader schleifen oder entfernen) oder man greift zu radikal neuen Technologien, wie ich sie schon in einem früheren Post erwähnt habe. Das ist heute aber noch Zukunftsmusik und von Serienreife noch ein gutes Stück entfernt.
 
Zuletzt bearbeitet: (vertippt)
Vielen Dank für den ausführlichen Test CB !

Jetzt können sich alle mit einer Sandy Bridge CPU entspannt zurücklehnen und auf Haswell warten, alle anderen können sich auf die Ivy Bridges freuen. Beeindruckende CPU's :)

Allerdings befürchte ich das AMD mehr und mehr den Anschluss verlieren wird...... :(
 
CHB68 schrieb:
Allerdings befürchte ich das AMD mehr und mehr den Anschluss verlieren wird...... :(

Hatte AMD nicht einmal in einer Neuigkeit angekündigt, dass es das Duell zwischen AMD und Intel in Zukunft nicht mehr geben wird?
 
Flipper44 schrieb:
Hatte AMD nicht einmal in einer Neuigkeit angekündigt, dass es das Duell zwischen AMD und Intel in Zukunft nicht mehr geben wird?

:lol: ....wie gesagt, das befürchte ich auch wenn INTEL so weiter macht. Die Frage ist dann leider nur wie lange es AMD noch geben wird. Aber das ist nur meine persönliche Meinung.
 
Zurück
Oben