News Intels „Ivy Bridge“ bald auch ohne Grafikeinheit?

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.736
Zum Ende des ersten Jahres der „Sandy Bridge“-Generation und damit kurz vor dem Start des Nachfolgers hatte Intel Prozessoren in den Desktop-Markt geschickt, bei denen die Grafikeinheit deaktiviert wurde. Jetzt scheint das Experiment mit Ivy Bridge eine Fortsetzung zu bekommen.

Zur News: Intels „Ivy Bridge“ bald auch ohne Grafikeinheit?
 
Schade das Intel kein DIE ohne GPU baut, dann wäre das OC Potential größer.
 
Da werden dann also noch mal die ganzen Schrottchips unters Volk gebracht, die für die "normalen" Ivy Bridges zu schlecht waren.

Wenn der Preis stimmt, ist das eine gute Sache, denn Ressourcen sind nicht in unendlich Mengen vorhanden. Ich wäre sogar dafür, sowas gesetzlich vorzuschreiben.

Es wird viele Interessenten geben, die diese billigen 22nm Chips gebrauchen können und Intel wird damit sicher auch ne Stange Geld verdienen, denn sonst würden sie es überhaupt nicht machen.
 
Wäre es technisch überzhaupt machbar die igpu komplett wegzulassen . Dachte die kommen komplett so aus einem wafer raus also cpu und gpu part.

DAs Problem daran ist dann halt das der Prozessor nicht wirklich billiger wird und auch das Temperaturproblem gleich bleibt ,
Ok das wäre auch ohne IGPU gleich, da die abgabefläche nicht steigt.
Einzig das die Grundfrequenz höher ausfällt wäre noch als Plus zu vermerken was aber für + übertakter wiederrum egal ist, da hier eh weit über der tdp gearbeitet wird und die igpu auch in 90% der Fälle nicht aktiv ist im Homeberreich !

Wenn also die Taktraten gleich bleiben was für einen Vorteil hat dann eine deaktivierte gpu ?
 
Also die IGP ist nur deaktiviert oder gar nicht mit auf der DIE?

hab ich mich auch gerade gefragt, dann bräuchte intel dass nur noch als cpu mit freiem multi rausbringen und schon hätte man die perfekte cpu :D
 
nanoworks schrieb:
Ich wäre sogar dafür, sowas gesetzlich vorzuschreiben.

super für welches Land??? Intel liefert global die scherrt es einen Dreck ob D oder Ö sagt die sollen vergeudetes Sillizium verkaufen...


Ich wäre ja dafür, den Kram weg zu lassen und mit den Preisen runter zu gehen,ist eh alles nur Geldmacherei. Jeder der aktuelle Spiele spielt oder mit gehobeneren Grafikdetails spielt holt sich eh eine dezidierte und dann ist die IGU nutzlos...
für Netbooks/Notebooks, für Smartphones oder lowPower/lowPerformance PCs OK aber richtige PCs fürs Spielen no way.
 
Zuletzt bearbeitet:
Klar wäre es machbar das Design ohne GPU auszulegen, sie machen ja schon angepasste Modelle, wenn die grafikeinheit nur 6 statt 16 EUs oder der Prozessorteil nur 2 statt 4 Kerne hat. Nur sind die Yields bei 22 nm auch noch nicht so prickelnd und noch gut von 32 nm entfernt, sodass da auch ordentlich was (teil-)defektes bei rauskommt. Deshalb dürfte es das Modell jetzt auch so früh geben und nicht wie bei Sandy Bridge erst nach einem knappen Jahr. Mehr Teildefekt = mehr Resteverwertung durch sowas.
 
Man hat doch schon beim 2550K gesehen wie das ganze läuft. IGP wird deaktiviert, Takt um 100 MHz angehoben und der Preis um 10 - 15% erhöht gegenüber dem 2500K. Et voilà erhält man eine total sinnfreie CPU.
 
Keine Ahnung ob es an der CPU liegt oder an der deaktvierter GPU: Mein 2550K macht 5 Ghz mit annehmbaren Temps und Voltages unter Luft...
 
Dragon45 schrieb:
super für welches Land??? Intel liefert global die scherrt es einen Dreck ob D oder Ö sagt die sollen vergeudetes Sillizium verkaufen...

Sowas kann man ganz anders Regeln über internationale Verträge. Es gibt Organistationen wie zB die WTO, die sowas in Verträgen festhalten und für die Mitgliedsstaaten und somit auch deren Unternehmen verbindlich machen kann.

Angesichts der immer knapper werdenden Rohstoffe und des immer weiter ansteigenden Verbrauchs ist sowas einfach nur vernünftig. Wenn man dann solche Gerüchte im Hinterkopf hat, dass der Afghanistaneinsatz der NATO in erster Linie darauf abzielt, den Nachschub von seltenen Erden für die westliche Welt zu sichern, dann bekommt man vielleicht einen Eindruck davon, wie wichtig Rohstoffe für die Mächtigen dieser Erde sind.

Und die Bedeutung des deutschen Marktes unterschätzt du gewaltig. Wir reden hier über das bevölkerungsreichste Land Europas mit Bürgern, die über extrem hohe Einkommen und somit auch über eine extrem hohe Kaufkraft verfügen. Intel würde den deutschen Markt nie freiwillig herschenken, lass dir das versichert sein.
 
Euch schon klar, dass der aller aller größte Teil der Prozessoren an Firmen gehen, und nicht an irgendwelche Roxxor Kinder mit ihren 300 Watt Grafikkarten.
 
Ein Hauptpluspunkt für mich würde wegfallen, die iGPU ist das i-Tüpfelchen für stromsparende PCs.

Übertakten tue ich trotzdem, mit 1.1 Volt läuft Ivy auf 4,0 GHz, mit 1.0 auf 3,5 Ghz, real mit Vdroop sind das 0,03-0,05 Volt weniger, der ganze Rechner nimmt unter BOINC 60 Watt auf. 4,5 GHz sind machbar mit 1.25 Volt, nur knapp über TDP-Angabe.

Warum die iGPU weglassen ? Als Teileverwertung verständlich.

Für einen späteren Produktionsschritt, bei dem die weiterzuentwickelnde iGPU - diesem Trend wird sich Intel kaum verschließen - mehr Platz und evtl. höhere Produktionskosten (geänderte Nachfrage nach intergrierter Grafik) nach sich zieht, solche Faktoren könnten schon eher wieder zu einer Trennung des CPU/GPU-Designs führen.

Die Übertakter, die sich von einer deaktivierten iGPU Vorteile versprechen, sind m.E. die absolute Minderheit im Massenmarkt. O.k. vielleicht in der Frühphase der Veröffentlichung stürzen die sich auf alles Neue ... ;)
 
@Selissa

Und was soll diese Aussage jetzt? Zu diesem Thread passt sie jedenfalls nicht, denn gerade Firmen, die keine Grafikleistung brauchen kaufen sich eine CPU mit iGPU damit keine weitere Peripherie für die Anzeige benötigt wird.

Für alles andere gibt es sowieso Xeon oder Opteron.
 
Bartonius schrieb:
@Selissa

Und was soll diese Aussage jetzt? Zu diesem Thread passt sie jedenfalls nicht, denn gerade Firmen, die keine Grafikleistung brauchen kaufen sich eine CPU mit iGPU damit keine weitere Peripherie für die Anzeige benötigt wird.

Für alles andere gibt es sowieso Xeon oder Opteron.

Ich rede von den Millionen Bürocomputern, in denen die Prozessoren landen. Dass die Server keine onboard GPU auf jeden einzelnen Proz brauchen, sollte wohl jedem klar sein.....
Und selbst die meisten Heimbenutzer sind mit der HD GPU mehr als gut genug bedient.
 
Zurück
Oben