News Intel bestätigt 16 EUs, USB 3.0 und PCIe 3.0 für „Ivy Bridge“

Eigentlich bringt "Ivy Bridge" genau die Features, die Sandy schon hätte haben sollen.
Aber mal ganz ehrlich: Wo genau liegt denn der Vorteil von Ivy? Die Meisten haben doch sowieso ihre eigene DX11 Grafikkarte, die viel mehr Leistung bringt. Und USB 3.0 können alle Boards per Zusatzchip.

Bleibt also nur noch der Shrink als kleiner Vorteil und die PCIe 3.0...
Und beides ist nicht wirklich weltbewegend - aber die Weiterentwicklung ist natürlich durchaus positiv...

Ich dachte ja, dass ich erstmal auf Bulldozer warte um zu sehen, wie der sich gegenüber SB schlägt. Und wenn ich schon bis dahin warte, kann ich gleich noch auf Ivy warten... (ja schon klar, die Vorgehensweise kann man endlos bis in alle Ewigkeit weiterführen und NIE upgraden)

Aber ehrlich, wenn ich das so lese dann kann man getrost auf SB upgraden (bzw. Bulldozer im Sommer) als auf Ivy bis 2012 zu warten...

Ich tuckere halt noch mit einen läppischen Athlon X2 4200+ (Sockel 939) rum und langsam wird es qualvoll...
 
Zuletzt bearbeitet:
trotz alledem finde ich Ivy als auch Sandy Bridge sehr ausgeglichene Plattformen ohne unütze Ballast.

16 PCI3 gen 3 Lanes sind mehr als genug, genau wie die Anbindung der SB absolut ausreicht. Wer mehr braucht (<1% aller) muss eben auf den LGA 2011 setzen.
 
Weiss jemand wann Ivy Bridge rauskommt? Insbesondere die mobilen Versionen würden mich interessieren!
 
Ivy Bridge kommt Anfang Januar 2012, wie jede neue Intel CPU Generation

Laptops damit dann halt in den Monaten darauf (kommt immer drauf an, welche Serie und von welchen Hersteller)
 
Intel behält sich vor, ggf. Ivy vorzuziehen, wenn der BD unerwartet schnell ist.
 
Ivy Bridge... ich habe gerade mein neues T420 mit Core i7 ausgepackt und weiß gar nicht, wie ich das Gerät an seine Leistungsgrenzen bringen soll. Ich werde Ivy Bridge wohl überspringen.
 
DonConto schrieb:
Die gleiche Diskussion (PCIe 2.0 vs PCIe 3.0) gab's doch damals schon bei AGP vs PCIe.

Brokkoli schrieb:
Naja das stimmt nicht so ganz. Zur Einführungsphase von PCIe war AGP schon am Ende. Man konnte aus AGP einfach nicht mehr Leistung rausholen. Dagegen wird nichtmal PCIe 1.1 von aktuellen Grafikkarten komplett ausgereizt.

Das stimmt so schon! Die kommenden zwei Chipgenerationen welche für PCIe entwickelt wurden und mittels Bridge-Chip fitt für AGP gemacht wurden, waren kaum (2. Generation High-End) bis gar nicht langsamer, trotz deutlich geringerer, maximaler Bandbreite durch AGP 8x. AGP war also längst nicht am Ende!
Ob nun kommende PCIe 3.0- High-End-Karten, mehr oder noch weniger von der höheren Bandbreite profitieren, wird sich zeigen, bzw. müsste erst mal mit Tests von damals verglichen werden.
 
Schon armselig, dass Intel in Sachen Chipsatz quasi seit jeher hinter AMD zurückhängt.

Insbesondere wenn man dann sieht, dass Sie ihre Chipsätze auch noch grundsätzlich schlechter ausstatten und deutlich teurer verkaufen.

Schon übel was so eine Beinahe-Monopolstellung bei den CPUs bewirkt, denn nur dadurch können sie sich so etwas erlauben.
 
An sich würde ich dir ja einfach mal Recht geben. Aber das kann man nicht so pauschalisieren.
Die AMD Chipsätze waren wohl bis zur 2. Generation der AM2 Chipsätze nicht so prall. Bin da selbst nicht alt genug, um das mehr als peripher mitbekommen zu haben.
Die USB Performance war wohl sehr mies. Und man nahm eher nForce Chipsätze für frühere Athlons. Oder kombinierte die gute AMD Northbridge mit einer Southbridge von VIA oder SiS.

Aber die Intel Chipsätze waren auch nicht gerade besser, wenn ich mich recht erinnere.

Heute hast du allerdings schon Recht. Schau dir mal an, was du beim günstigsten Board mit 890FX für glatt 100€ - oder einem besseren von ASrock für 115€ - schon alles bekommst! Und wenn man das dann mal mit P67 vergleicht ... das günstigste bekommt man da "schon" ab 90€! Sie schießen dann aber schnell bis 120€ und mehr hoch. Und P67 ist ja nun nicht unbedingt State of the Art.
 
LOLinger78 schrieb:
Schon armselig, dass Intel in Sachen Chipsatz quasi seit jeher hinter AMD zurückhängt.
Sorry aber mit solchen Aussagen, machst du dir deine gesamte Glaubwürdigkeit eh zunichte. Wenn man mal etwas weiter zurückgeht, stimmt die Aussage schon nicht mehr.
 
Aber mal ganz ehrlich: Wo genau liegt denn der Vorteil von Ivy? Die Meisten haben doch sowieso ihre eigene DX11 Grafikkarte, die viel mehr Leistung bringt. Und USB 3.0 können alle Boards per Zusatzchip.

Kommt drauf an wen du mit "die Meisten" meinst. "Die Meisten" werden sich sicher hier nicht im Forum rumtreiben und so hohe Anforderungen an Grafikperformance haben.

Sandy Bridge ist nunmal unausgewogen das stimmt schon. Mit dem einen Chipsatz kann ich übertakten, dafür nicht die GPU in der CPU nutzen, mit dem anderen Chip kann ich zwar dei GPU nutzen, aber übertakten geht nicht. Und die K Modelle mit der "besseren" Grafik machen auf den H67 Board auch kein Sinn wo man sich jetzt fragen könnte wieso in diesen Modelle überhaupt die bessere GPU drinsteckt. Waage zu bezweifeln dass jemand für nen K Modell tiefer in die Tasche zu greifen bereit ist um dann die etwas bessere Grafik auf seinem H67 Board zu nutzen

Mit andern Worten, bei nem sehr großen Teil der Anwender, nämlich alle die die P67 haben liegt die GPU brach. Da hätte man die GPU gar net integrieren brauchen so recht. Z68 vereint zwar beides doch der kommt ja erst noch und SB gibts ja schon recht "lang"

Ich finde wenn in der CPU eh ne GPU steckt dann sollte man auch einfach die entsprechenden Anschlüsse nach draußen führen und zwar bei allen Chipsätzen.

So kannste den Gaming PC auch weiter nutzen wenn die richtige Grafikkarte im System mal defekt ist. Kommt zwar nicht vor, aber wenn die Hardware eh schon vorhanden ist...

Ne andere Idee wäre auch die dedizierte Grafikkarte komplett auszuschalten falls sie nich benötigt wird und strom zu sparen. Im Leerlauf schlagen die Intel GPU´s doch die Karten von AMD/Ati und Nvidia um längen

Und USB 3.0 können alle Boards per Zusatzchip.

Bleibt also nur noch der Shrink als kleiner Vorteil und die PCIe 3.0...
Und beides ist nicht wirklich weltbewegend - aber die Weiterentwicklung ist natürlich durchaus positiv...

Weltbewegend war es auch nicht die Grafik in die CPU zu legen, trotzdem hat man es gemacht. Jeder Zusatzchip verbraucht auch Strom und je mehr Sachen integriert werden desto sparsammer wird es.

Ich hoffe nur mal dass man mit IB dann auch gleich Thunderbolt mit integriert
 
Zuletzt bearbeitet:
Naja, IGP gegen dedizierte Grafik, da ist das Ergebnis nicht verwunderlich. Das Problem bei Atom ist wohl eher nicht der Verbrauch, sondern die absolut untaugliche IGP. Dadurch wird ION2 nötig (wenn man denn eine halbwegs potente Grafik oder Hardware-Dekodierung braucht) und das schraubt den Verbrauch hoch.

Der nächste Atom kann gleich mehreres besser machen. Durch den Shrink wird er sparsamer und er bekommt (hoffentlich) ne gescheite IGP.

Aber klar, wenn Geld keine Rolle spielt hat der Atom noch nie Sinn gemacht. Da kann man lieber nen ULV Prozessor (früher Core2, jetzt Core i) nehmen im mobilen Bereich.
 
Zurück
Oben