News Benchmarks eines „Ivy Bridge“-Samples mit vier Kernen

Ja, da stimme ich dir zu, Athlonscout. Intel hat an der CPU-Architektur bei den Ivys gegenüber den Sandys kaum was geändert, ok, etwas mehr L3-Cache, das wars dann schon. Die bedeutenste Änderung ist die höhere Leistung der GPU, da die Ivys 16 anstatt 12 GPU-Recheneinheiten haben werden. Dazu kommt noch ein eingebauter Generator für Zufallszahlen, welcher z.B. für Verschlüsselungsverfahren genutzt werden kann.
Die Ivys werden schnelleren DDR3-Speicher unterstützen.

Ansonst müssen die Ivys mit mehr MHz laufen um eine höhere Rechenleistung zu erreichen.
 
@zu erwartende Mehr-Performance, fand ich das hier recht passend ;):

...In Sachen CPU-Performance sollte man im Gegensatz zur iGPU keine großen Sprünge erwarten.

Zu gering sind die Änderungen gegenüber "Sandy Bridge".

Einzig durch einen höheren Takt, könnte man hier deutliche Performance-Gewinne erzielen.

Dieser könnte dank der neuen Fertigung bei gleicher Leistungsaufnahme jedoch deutlich steigen.

Insofern könnten die spekulierten Leistungszuwächse von bis zu 20 Prozent durchaus möglich sein...
http://ht4u.net/reviews/2011/intel_ivy_bridge_architektur/index9.php

PS:

Ja, ein (bezahlbarer) Six- oder gar Octa-Core wäre schon nicht übel.

Mir sind derartige Zukunftsausrichtungen von Intel jedoch nicht bekannt.

Zudem Intel bisher immer kräftig hin langte, wenn es darum ging dessen Kronjuwelen zu veräußern.

Davon ab, lt. Aussage einer der letzten c'ts, kommen die "Großen" (IBM, Oracel etc.) jetzt immer mehr ab von der "immer mehr Kerne-Philosophie" und arbeiten wieder hin zur Singelecore-Optimierung!

Somit ist der Trend von Intel und AMD nicht mehr besonders up to date.
 
@xrayde

Welcher Trend von Intel und AMD? Bei Intel lag bei den letzten Architekturen jeweils der Fokus auf der Optimierung der einzelnen Kerne, besonders gut gelungen bei Sandy Bridge.
 
Wenn bei einem Prozessor die häufigsten im Programmcode vorkommenden Befehle in einem Taktzyklus verarbeitet werden, wie kann die IPC dann noch weiter gesteigert werden?
Noch mehr Ops-Fusion? Die Parallelisierbarkeit auf der Instruktionsebene ist eine weitere Grenze.
Bleiben noch weitere Befehlssätze für bestimmte Aufgabenbereiche (z.B. SSE, AVX), mit denen Intel die Leistung der CPUs erhöht.
 
Kasjopaja schrieb:
Dennoch etwas schade, dass sich keiner an iGPU Benchmarks wagt, oder laufen die iGPUs immernoch nicht bei aktuellen Samples?

Wie Du dem Thread vernehmen kannst, funktioniert der aktuellste Treiber nicht mit Ivy Bridge.
 
xrayde
ist zwar vllt schon offtopic ??? aber da du es ansprichst.
Ich hab auch vom Trend gelesen dass StreamProzessoren somit GPUs immer interessanter werden...
Modulare Bauweiße geht in Richtung Fusion Konzept soviel ich verstanden habe, kann mich hier aber auch täuschen o0

Es ist halt die Frage wem man es einfacher machen will, den Programmierer oder den Leuten die die Hardware Designen. Denke more cores is einfacher zu realisieren als high IPC, und bin mir ziemlich sicher dass ersteres in Zukunft sich eher durchsetzen kann. Besonders wenn man igp als vollwertigen co prozessor verwenden kann.

Fürn Desktop-mainstream sehe ich Intels Politik mehr als legitim, wenn sie mit quadcores gut laufen, wieso sollten sie dann mehr als 4 cores IB bringen. Wenn man die Effizienz weiter verbessert, also den Verbrauch senkt ist das nur gut für das Image Intels in diversern HardwareSeiten.

Den FX 8000 seh ich selber nur als Quadcore, und weniger als Octacore. Hab mir letztens überlegt wieso man beim FX nicht 4 cores ähnlich Phenom II mit 3 pipes und die 2 zusätzlichen cores nur mit 2 pipes konstruiert hätte, das wäre wohl ein besseres gegenstück zu Intels HT gewesen. Nur bleibt die Frage offen wie Win7 damit umgegangen wäre.
Weiteres hätte man als gegenstück ein 6 Modul Bulli bringen müssen, dieser wäre der Tatsächliche Gegner eines Phenom II x6, eigentlich hat AMD mit letzteres sich selber ein Ei gelegt... Naja weiter auf das einzugehen würde aber nicht mehr zum Thema passen...
 
Zuletzt bearbeitet:
@WinnieW2

Zum Beispiel speziell bei x86 CPUs gibt es Optimierungsmöglichkeiten bei der Dekodierstufe.

Oder die Sprungvorhersage. Und alles, was dazu dient, die Latenz des Hauptspeichers zu "verstecken".

Das es da Grenzen gibt, ist klar.
 
Das gibt es weitere Hindernisse, caluna.

Leistungsfähigere Dekoder sind meist komplexer aufgebaut, genau wie auch eine leistunsfähigere Sprungvorhersage. Die Sache dabei ist: Je komplexer eine Schaltung desto eher treten Probleme mit der Signallaufzeit der Logikgatter auf, was bedeutet: Die Schaltung hat zwar nun mehr IPC, lässt sich dafür allerdings nun nicht mehr so hoch takten.
 
3dhnx6jmnfu11.jpg


mmkvwjmkqpud8.jpg



Kommt von corescn, aber das scheint ja hier eh egal zu sein. Es gibt keine Fakes und grundsätzlich kann man jeder dieser Seiten trauen.

Vertraut man auf die Zahlen, dann gibt es vom Takt her keine außergewöhnlichen (wenn überhaupt) Steigerungen, aber natürlich wird die TDP deutlich gesenkt. Mal sehen inwieweit, sich das auf die LA auswirkt und ob Intel noch ein wenig an der Leistung der einzelnen Kerne geschraubt hat.


edit: Oh, es gibt sogar eine zweite "Quelle". Muss Intel wohl gerade ein paar "Folien" verschenkt haben:

cee1XneYQnIhg.png

cejIfOtfqNuo.png


http://cpu.zol.com.cn/261/2610852.html
 
Zuletzt bearbeitet:
Ich bin ja mal gespannt, wie viel Leistung so ein Ivy entsprechend einem 2600/2700 verbraucht, wenn die Grafikeinheit deaktiviert ist. Wenn diese leistungsmäßig so zunehmen wird, dann wird sie sicherlich auch verhältnismäßig mehr Leistung aufnehmen, als die der SB (was durch den Shrink u.U. noch immer weniger sein könnte).

@deadohiosky:
Ich hatte vor einigen Jahren auch mal ein ES (allerdings von einem anderen Hersteller) in der Hand. Tatsächlich hätte ich sämtliche Erfahrungen (was ausdrücklich erwünscht war) als auch Leistungen (was nicht ausdrücklich erwünscht, aber legitim war) in die weite Welt tragen können. Allerdings musste man immer dazuschreiben, dass es ein ES ist, das Produktionsdatum des ES, sowie deaktivierte Einheiten, die in der finalen Version aktiv sind, aufführen müssen. Aber mit einem knallharten NDA ist das nicht vergleichbar.
ES werden meist auch an Leuten, die bestimmte Dinge testen, versendet und nicht an diverse Medien. Teilweise kann sich das natürlich unterscheiden. Teilweise kommen Medien auch an ES, die eigentlich andere Leute nicht weitergeben hätten dürfen. Immer wenn das der Fall ist, muss mit den Informationen natürlich sorgfältigst umgegangen werden, denn niemand will ja den Geber identifizieren, da dieser ja eigentlich eine Straftat begangen hat. Wenn es doch herauskommt, wer ein ES weitergegeben hat, der wird zumeist jedoch nur in dem Sinne bestraft, indem er keine weiteren ES mehr bekommt.

lg Kinman
 
@KM

Wo habe ich gesagt, dass coolaler eine vertrauenswürdige Quelle ist?

Wie definierst du denn vertrauenswürdig? Ich habe offensichtlich eine viel deutlichere Definition davon.

Und die Sache mit dem falschen Fuß... das musst du irgendwie auch falsch verstanden haben. Ich bin noch nie mit einem falschen Fuß aufgestanden, denn ich habe zwei voll funktionsfähige Füße... seit meiner Geburt. Aber, dass ist ja völlig nebensächlich, wenn dir etwas an meiner Ausdrucksweise nicht passt, dann melde das bitte. Ansonsten würde ich dich bitten auf meine Argumente ("wenn ich denn überhaupt welche habe" :rolleyes:) einzugehen anstatt dich an persönlichen Befindlichkeiten aufzuhängen.


@Kinman

Ich weiß ja nicht was du für ein ES in der Hand hattest und ob es überhaupt für dich gedacht war, aber in der Regel unterschreibt man bei ES eine Vertraulichkeitserklärung. Oft wird Firmen bzw. Testern auch ein komplettes System zur Verfügung gestellt, wie zum Beispiel bei Server-CPUs. Das System ist dann z.T. verplombt.

Jeder der mir erzählt, dass er schon mal ein ES in der Hand hielt (und ich meine Intel und AMD, Apple und Co. wie ich ja bereits erwähnte, nicht irgendeine Fitzelklitsche der es nicht egaler sein könnte) , dass er direkt und "OFFIZIELL" vom Hersteller erhalten hat und mir dann weiß machen will er musste nichts unterschreiben, dass ihn davon in Kenntnis gesetzt hätte, dass das Sample dem Hersteller gehört und zwar in seiner Gänze, samt Leistungseinschätzungen die in die Welt getragen werden könnten, der lügt... meines Erachtens, oder hat die Vereinbarung nicht richtig gelesen bzw. verstanden.
 
Interessant, ich lese dennoch nichts von 37% schneller bei gleichzeitig 50% weniger Energieverbrauch, Du etwa?
Es scheint so, als würdest du fest überzeugt von der Annahme sein, dass sich die positiven Effekte des Tri-Gate Transistos nicht im geringsten überschneiden können.

Wenn ichs mir genau überlege wars doch bislang bei jeder kleiner gewordenen Stukturbreite doch so, dass sie schneller war, und weniger brauchte, korrigiere mich bitte wenn ich falsch liege. Warum sollte das dann hier anders sein?
 
ich hab mich auch gefragt wieso er das "UND" so groß und fett machen musste... zusammenhangslos.

Es geht ja um den Verlust bei ausgeschaltetem Transistor.

Es verhält sich doch wie immer, ändert man eine Variable ändert sich eine andere in bestimmter Abhängigkeit. Wie die Minima / Maxima im Einzelnen dabei aussehen hat mit dem Endprodukt wenig zu tun, aber diese Minimal Maxima kommen diesen Aussagen wie

37% increase at low Voltage

>50% power reduction @ constant performance

gleich.

Intel hat offensichtlich die Variablen so gewählt, dass die Performance geringfügig zunimmt, (keine 37%) und der Verbrauch dabei sinkt und so die 77W TDP erreicht wird.
 
Zuletzt bearbeitet:
Edit:
Hat sich erledigt. Ich wollte im Prinzip auch nur auf den Anandtech-Artikel zum Thema 3D-Transistoren verweisen, aber den hat deadohiosky jetzt schon gebracht. Ich tippe zu langsam. ;)

http://www.anandtech.com/show/4313/...nm-3d-trigate-transistors-shipping-in-2h-2011

Aber nur noch kurz zusammengefasst.
3D-/Tri-Gate Transistoren werden sehr viel bei stromsparenden ULV-CPUs und Atom bringen, aber bei hoch getakteten CPUs mit hoher Spannung eher nur wenig.
 
Zuletzt bearbeitet:
Um die Sache mal zusammenzufassen (ich hoffe, dabei kommt mir nicht wieder jemand zuvor ;) ):

Aus den Intel-Diagrammen z.B. im Anandtech-Artikel geht folgendes hervor:

Bei 0,7V Spannung wären 37% schnellere Schaltzeiten und damit entsprechend höhere Taktfrequenzen drin. Bei 1V sind es nur noch 18%. usw.

Oder auch anders herum.
Bei einer gleichbleibenden Schaltzeit von "1" (normalisiert), könnte die Spannung von 1V auf 0,8V gesenkt werden.
Wiederum bezogen auf genau diese Spannung. Bei höherer Spannung wäre der Wert, um den abgesenkt werden kann, niedriger, bei niedriger Spannung könnte noch etwas stärker abgesenkt werden.


Intel kann diesen gewonnenen Spielraum flexibel nutzen. Zum Energiesparen, indem man die Spannung reduziert, UND/ODER zum Erhöhen der Leistung, indem man die Spannung beibehält und dank niedrigerer Schaltzeiten höher taktet.

Wirklich interessant an den Intel-Diagrammen ist dabei vor allem die starke Abhängigkeit von der Spannung. 22nm mit 3D-Transistoren bringt bei niedrigen Spannungen (unter 1V) sehr viel und bei höheren nur noch wenig.

Deshalb erwarte ich, dass Intel bei den kommenden stromsparenden ULV-Mobil-CPUs und besonders den Atom-SoCs sowohl den Verbrauch nochmals deutlich senken kann, als auch die Leistung/Taktfrequenz erhöhen. Dort kann Intel schließlich aus dem Vollen schöpfen.

Bei den typischen Desktop-CPUs mit > 1V bringt die neue Technik aber keine so großen Vorteile und deshalb konnte Intel offensichtlich auch nicht gleichzeitig deutlich sparsamer werden und dabei auch noch den Takt erhöhen.
Also entschied man sich primär für das Energiesparen und die Taktraten bleiden die selben. Die durch den Shrink gewonnene Die-Fläche geht dabei wahrscheinlich teilweise für die deutlich größere GPU drauf, während die Architektur der CPU-Cores bekanntermaßen weitgehend die selbe bleibt, wie bei Sandy Bridge.
Ich würde deshalb keine großen Sprünge bei der CPU-Leistung der normalen Desktop-CPUs gegenüber SB erwarten.
Wenn, dann müsste die Mehrleistung aus höherem Takt kommen und das ist offensichtlich nicht der Fall.

Was High-End-CPUs und generell den Übertaktungsspielraum angeht, würde ich, aufgrund der dabei üblichen hohen Spannungen, noch weniger erwarten.
Je höher die Spannung, um so weniger bringen 22nm+3D-Transistoren gegenüber dem herkömmlichen 2D-32nm-Prozess.
Tatsächlich könnte es sogar so kommen, dass die IVB-High-End-Modelle nicht nur im Standardtakt nur wenig bis gar nicht sparsamer ausfallen, als die Vorgänger, sondern sich möglicherweise aufgrund des neuen, noch nicht so ausgereiften Fertigungsprozesses, schlechter übertakten lassen, als SB in 32nm.
Wenn man sie extrem übertaktet und overvoltet, dann schwindet der Stromspareffekt völlig dahin. Was bleibt ist der neue, potentiell unausgereifte Fertigungsprozess.
 
Zuletzt bearbeitet:
@Herdware

Wirklich interessant an den Intel-Diagrammen ist dabei vor allem die starke Abhängigkeit von der Spannung.

Die Abhängigkeit bei 22nm Tri-Gate fällt dem Diagramm nach aber geringer aus als bei 32nm bzw. 22nm ohne Tri-Gate, denn ohne wäre der Kurvenverlauf ähnlich wie bei 32nm, nur eben mit geringeren Werten.

@deadohiosky

Für mich redet ihr teilweise aneinander vorbei.
 
Zuletzt bearbeitet:
calluna schrieb:
@Herdware
Die Abhängigkeit bei 22nm Tri-Gate fällt dem Diagramm nach aber geringer aus als bei 32nm bzw. 22nm ohne Tri-Gate, denn ohne wäre der Kurvenverlauf ähnlich wie bei 32nm, nur eben mit geringeren Werten.

Ich interpretiere das Diagramm genau anders herum.

power.jpg


Da ist sogar eine dünne graue Linie und die liegt da, wo ich 22nm ohne 3D-Tri-Gate erwarten würde. Also einfach nur der gleiche Verlauf wie bei 32nm etwas nach unten versetzt.

Durch die neuen Transistoren wandert die Linie noch stärker nach unten, aber nicht gleichmäßig, sondern bei niedrigen Spannungen sehr stark und bei höheren immer weniger.

Genau das ist die Abhängigkeit von der Spannung, die ich meine. Die 3D-Transitoren sind eine kleine Revolution bei niedrigen Spannungen und bringen deutlich mehr als der Shrink an sich, aber über 1V fallen sie praktisch nicht mehr ins Gewicht.

Deshalb mein Fazit: Bei Atom und ULV-Mobil-CPUs werden 3D-Transistoren einen deutlichen Sprung bei Leistung und Sparsamkeit bringen, aber Übertakter und Käufer von absoluten High-End-Desktop-CPUs werden nicht viel davon haben.
 
Zuletzt bearbeitet:
Ach wirklich?

Die neuen Befehlssätze(z.B. DRNG), Unterstützung von höheren RAM-Frequenzen samt DDR3L, PCIe 3.0 etc.


Für einen simplen Tick haben sie sich meines Erachtens eine Menge vorgenommen.
 
CPU seitig ist es ein simpler Tick, allein der Sprung auf DX11 macht die GPU Seite aber eher zu einem Tock (gemäß Intel Definition von Tick und Tock).

Ein Tock setzt in meinen Augen gröbere Änderungen voraus als höherer Ram Takt und PCIe der eigentlich nur eine Abwandlung des Protokolls benutzt um die Nutzdatenrate zu erhöhen.

Ist doch auch vollkommen Juck... Intel redet von einem Tick, in meinen Augen ist es auch einer. Wegen mir können sie es auch "Tack" nennen, wen interessiert das?


@Herdware


so seh ich das eigentlich auch. Ich bin gespannt wie sich die CPU bei kleinen Spannungen schlagen, also ~0,8-0,9V.
Hier könnten gut 2,5 -3 Ghz drin sein (ausgehend von den 32nm Modellen die 3 Ghz unter 1V machen) bei sehr niedrigem Verbrauch, niedriger als der Shrink alleine bringen würde.

Allerdings gilt auch hier, dass die Transistor Werte nicht 1:1 auf die CPU übertragbar sind.
 
Zuletzt bearbeitet:
Zurück
Oben