News Ein-Chip-Design von Intels „Haswell“ erst ab Q3/2013?

bensen schrieb:
Mh? Haswell wird in der gleichen Struktur wie Ivybridge gefertigt. Deswegen ist es rein von der Fertigung garantiert nich günstiger den Haswell zu bringen. Der wird sicherlich nicht kleiner als Ivybridge.
Auf Haswell war das natürlich auch nicht bezogen, sondern indirekt auf Broadwell. Wenn Haswell später auf den Markt kommt, dann wird sich in dessen Konsequenz auch Broadwell in 14nm verspäten.
Unlimited1980 schrieb:
Wie bereits geschrieben, kann ich mich mit Deiner Vermutung nicht so ganz anfreunden. Belassen wir es einfach mal dabei, dass wir zu diesem Thema unterschiedliche Vermutungen hegen.
Unlimited1980 schrieb:
Eben doch, weil nur aufgrund der schwachen Position von AMD im Desktopbereich, Intel es sich erlauben kann Haswell (fast) nach Belieben in der Roadmap nach hinten zu verschieben, ohne Gewinneinbußen befürchten zu müssen
Jetzt stellst Du es als Fakt dar. Dann bitte auch entsprechend mit Quellen-Angabe belegen.
 
Zuletzt bearbeitet: (Nachtrag)
Voyager10 schrieb:
AMD fällt zurück und aus dem einzigen Grund hat Intel die straffen 12 Monatspläne nichtmehr nötig und kann mit bestehendem Material gutes Geld verdienen.

Man sieht es doch daran das der IvyBridge Verbrauch noch Luft nach oben hat und durch gleichwertige AMD CPU Konkurenz wäre Intel gezwungen noch etwas darüber legen zu müssen und dann wäre die HD4000 stärker ausgefallen um mit AMD´s APU näher zusamm zu rücken und der Verbrauch etwas höher.

Die HD 4000 kann gar nicht stark genug ausfallen.

Alle reden immer vom Bulldozer, dabei wird konsequent ignoriert, dass die IGP von Intel viel schlechter ist im Vergleich zur IGP von AMD, als es der Bulldozer im Vergleich zur Ivy Bridge ist. Sowas holt man nicht mal eben auf, in dem man ein wenig in die Hände spuckt und die TDP erhöht. Zwischen Intel und AMD liegen in dieser Disziplin tonnenweise Know-How.

AMD ist Intel Lichtjahre vorraus wenn es um GPU geht, ganz gleich ob in der Fertigung oder in puncto Treiber. Immer wieder machen die User hier den Fehler und reduzieren die APUs auf Grafikausgabe und CPU-Rechenleistung und vergessen dabei, dass der GPU Part ebenfalls über richtig viel Rechenleistung verüfgt. GPGPU ist das Stichwort. Und GPGPU bringt eben nicht den kleinen Leistungsvorteil von 10 oder 20%, wir reden hier über Faktor zwei oder drei oder gar vier.

Bei parallelisierbaren Aufgaben wird Intel von AMD in den Boden gestampft werden und darauf arbeitet AMD mit der Full Fusion hin. Pipi hat es im Vishera Thread angesprochen: Die APU muss als Einheit verstanden und darf nicht auf die Summe ihrer Teile reduziert werden. Intel wird also gut daran tun, dass sie ihren Grafikteil so schnell wie möglich auf die Reihe kriegen und in meinen Augen ist genau das der nachvollziehbare Grund, warum Intel umdisponieren muss.

Das Intel ein wenig Tempo rausnimmt, weil AMD keine Konkurrenz mehr ist, ist doch totaler Quatsch und unfassbar naiv. Warum sollte Intel den ärgsten Konkurrenten wieder herankommen lassen? Das wäre ein unnötiges Risiko. Ausserdem wird das Geld nicht nur beim Heimanwender verdient. Intel kämpft gegen Konzerne wie IBM wenn es um Ausschreibungen für Chipdesigns für neue Waffentechnologien geht. Ob der neue ultrageheime Kampfjet oder das ultrageheime Stealth U-Boot der amerikanischen Streitkäfte nun mit Intel oder IBM ausgestattet wird, ist denen ganz sicher nicht egal.

Je mehr Knete man macht, desto intensiver muss man forschen. Alles andere wäre total bescheuert.
 
obi68 schrieb:
10 % Leistungssteigerung von Sandy- auf Ivy Bridge. 10 % Leistungssteigerung von Ivy Bridge auf Haswell. Dazu sage ich nur mickerig. Die Konkurrenz von AMD, bis auf die Grafikeinheit, wird schmerzlich vermisst.

Das ist Absicht! Die haben eigentlich viel bessere Technik auf Lager, die bestimmt über 40 % stärker ist, aber die verkaufen eben erst die schwächere, um Geld zu verdienen. Wenn sie auf einmal das beste verkaufen, kauft sich jeder diese Sachen und dann haben sie lange Zeit nichts (viel) besseres anzubieten (das heißt Verlust).
 
@ nanoworks

Das scheint bei dir als AMD Fan eine Frage des Glaubens zu sein das die HD4000 hätte nicht stärker ausfallen können !? Dabei brauchst du nurmal die DIE Größe bei Ivy Bridge sehen , selbst dort hätte Intel noch Luft nach oben gehabt und ob du das glauben willst oder nicht , wäre der Bulldozer besser geworden und näher mit SandyBridge zusammengerückt dann hätte Intel ein paar Grafikshader mehr in die HD4000 gemacht.
 
Intel macht im Augenblick alles richtig. Zwar nicht immer so, wie manche es sich wünschen (mehr Kerne, mehr Ghz, ohne iGPU), aber das sind kurzsichtige Forderungen, die von Gamern kommen.
Ein-Chip-Design zielt wohl eher auf den Mobilen Markt als auf den Desktop und jeder Chip mehr in der CPU bringt Gewinn, den sonst andere machen würden. Ist aber schon beängstigend, wenn man dann nur noch von Intel und denen Ihren Treibern abhängig ist.
Glaube auch nicht, dass Intel da irgendwas künstlich verzögert oder sich einfach zurück lehnt. Alle 12 -15 Monate muss was neues kommen , damit der Rubel rollt.

AMD hat sich mit Bulldozer selbst ins Bein geschossen und humpelt nun heftig. Außer Ankündigungen und Mutmaßungen kommt doch nicht viel. Ausschlaggebend ist das was man im Laden kaufen kann und nicht was man evtl. einmal kaufen könnte.
Bei Intel kann man jetzt etwas aktuelles kaufen und weiß, das es für die nächsten Jahre reichen wird. Schaut man in die Verkaufsberatung, dann sieht man wie viele noch auf alter Hardware sitzen und nach einem Update suchen. Das sind alles Kunden, die Geld bringen.
Mit Sprüchen, das ein Phenom auch heute noch für alles reicht, wird kein Geld verdient.
 
Ich finde das die IGP der letzte Dreck ist, zumindest für Desktop CPU. Mag ja sein das es für die nun riesige Sparte Mobilgeräte das non Plus Ultra ist, zumal man damit Strom spart und damit die Akkulaufzeit verlängert, aber bei DESKTOP CPUs....

Ich würde mir wieder ordentliche CPUs wüschen ohne IGP. Sollen Sie lieber mit dem gewonnenen Platz bei jedem String die Anzahl der Transistoren vergrößern, um die Rechenleistung zu erhöhen und die Chipfläche gleichbleiden groß zu halten um die Verlustleistung ordentlich abzuführen.
Denn genau da liegt der Hund begraben! bei einstelliger Struckturgröße ist der Chip so klein das (z.B.) 50-100 Watt über 1cm² oder kleiner abgeführt werden müssen und da stossen heutige Kühllösungen massiv an ihre Grenzen.
 
Voyager10
Also ich glaub auch dass Intel die igp wesentlich größer ausbauen kann, aber die frage ist, passt auch die gewonnene Performance dazu. Haswell bekommt die igp sogar einen eigenen Cache, ob die aber auch schneller als die HD7660 ausfallen mag, muss sich erst mal zeigen.

AMD hat sich mit Bulldozer selbst ins Bein geschossen und humpelt nun heftig.
Nur dass AMD eben nicht nur Bulldozer hat. Weiteres zeigt es dass man mit Trinity eben in vielen Bereichen mit Intel nachziehen konnte (Akkulaufzeit zum Beispiel)
Ich sehe es ein, wenn die Firmen sagen, mobile Devices sind die Zukunft, aber interessanter finde ich es, dass man hier im Forum trotzdem vieles von Desktop-Modellen herleiten möchte.
Intel kann dank Fertigung, wesentlich mehr CPU-Performance bieten, trotzdem sollte man eine APU als APU betrachten, denn die igp wird in der Zukunft immer wichtiger werden, und das wird sich mit SoC erst recht nicht ändern.
Es wird sicherlich noch Notebooks mit dgpu geben. Doch sollte es klar sein dass Intel es begrüßen würde, wenn die Leute nur Notebooks mit only intel igp kaufen würden.
 
Zuletzt bearbeitet:
Dragon45 schrieb:
bei einstelliger Struckturgröße ist der Chip so klein das (z.B.) 50-100 Watt über 1cm² oder kleiner abgeführt werden müssen und da stossen heutige Kühllösungen massiv an ihre Grenzen.
Das kann man auch positiv betrachten, so werden Intel und AMD wenigstens gezwungen Produkte anzubieten die halbwegs brauchbare Verlustleistungen (sprich deutlich unter 100W) haben und verlieren die Option nochmal so einen Schund wie den P4 zu bauen.
 
Kinkaku-ji schrieb:
Wie bereits geschrieben, kann ich mich mit Deiner Vermutung nicht so ganz anfreunden. Belassen wir es einfach mal dabei, dass wir zu diesem Thema unterschiedliche Vermutungen hegen.
:)
Naja, zum Glück gibt es ja unterschiedliche Meinungen!
:freaky:
Ich hatte dir meine Erläuterungen in dem alten Post noch mal nachträglich editiert, aber ich vermute, du hast es nicht mehr gelesen?
Daher kopiere ich es dir hier nochmal rein, vielleicht entdeckst du ja nochmal einen für dich interessanten Gedankengang in meinem ganzen Geschreibsel:

Wäre AMD jetzt z.B. Intel im Nacken, dann würden die alten Prozesse für Intel auch nur noch einen schwindenden Gewinn abwerfen, weil AMD würde ja dann auch Druck machen: preislich und in Bezug auf Kampf um Marktanteile.

Besonders prekär für Intel wäre es wohl, wenn Intel wieder in die "Athlon-Situation" kommen würden und sie (intel) leistungsmäßig und preislich hinterherhinken würden.
Intel wäre/war stark unter Druck sich diesen schwindenden Gewinn durch neue Prozessoren wieder neu zu erarbeiten.
Ergebnis war ja dann ein echter Bruch, ein Riesenschritt nach vorne: das Ende von Netburst und die tollen C2D-Effizienzwunder (wann war das 2006?/2007?).
Daher bedauer ich es halt schon sehr, dass AMD so fern von seiner alten Stärke weg ist.

Denn wir Konsumenten haben von dieser starken Konkurrenzsituation alle sehr profitiert.
Auf den Riesenschritt von AMD (Athlon), hat Intel dann auch einen Riesenschritt (Core-Architektur) gemacht, weil sie dazu gezwungen waren....
Hätte AMD Intel damals nicht gehörig versohlt, wer weiß, vielleicht müssten wir uns heute noch mit dem furchtbaren Netburst herumquälen?
Grauenvolle Vorstellung...
Jetzt geht es halt seit eben der Einführung des C2D vor über 6 Jahren nur noch in immer kleiner werdenden Schritten weiter, die jetzt in eine Verschiebungstaktik gipfeln.
Ich schiebe nicht alles, aber einen Großteil der Verschiebungstaktik von Intel daher auf die schwache Position von AMD.

BTW: Ich habe immernoch meinen E4300... und ich wünsch mir schon, dass AMD Intel nochmal richtig in den Allerwertensten tritt, aber ich fürchte, diese Zeiten sind jetzt womöglich für immer um...

P.S.:
Auch zu Netburst-zeiten sprach man übrigends schon davon: " sind wir am physikalischen Limit!"
Und dann kam der C2D!!
Also Sprünge nach vorne sind immer möglich, wenn der Druck dazu groß genug ist.


Kinkaku-ji schrieb:
"Zitat von Unlimited1980:
Eben doch, weil nur aufgrund der schwachen Position von AMD im Desktopbereich, Intel es sich erlauben kann Haswell (fast) nach Belieben in der Roadmap nach hinten zu verschieben, ohne Gewinneinbußen befürchten zu müssen"


Jetzt stellst Du es als Fakt dar. Dann bitte auch entsprechend mit Quellen-Angabe belegen.

Naja, ich habe es versucht es oben nochmal zu erläutern, vielleicht ist es so dann nachvollziehbarer.

Wie soll ich sagen, wegen Quellenangabe, die du verlangst:
ich denke mal, der Umstand das AMD schwach im Desktopbereich sei, sei allgemein bekannt... soll ich das mit einer Quelle belegen?
Der Rest, den ich schrieb ist ja eher ein logischer Gedankengang, (daraus folgt das, daraus folgt jenes) den muss man nachvollziehen oder (bitte sachlich begründet) ablehnen.
Quellen zu logischen Schlussfolgerungen gibts nur im eigenen Hirn... ;)
 
Zuletzt bearbeitet:
Voyager10 schrieb:
Man sieht es doch daran das der IvyBridge Verbrauch noch Luft nach oben hat und durch gleichwertige AMD CPU Konkurenz wäre Intel gezwungen noch etwas darüber legen zu müssen und dann wäre die HD4000 stärker ausgefallen um mit AMD´s APU näher zusamm zu rücken und der Verbrauch etwas höher.

Richtig. Wenn Intel müsste (also ernsthafte Konkurrenz hätte), dann könnten und würden sie jederzeit an der Taktschraube drehen. Jeder z.B. i5-2500K läuft völlig problemlos unter Luftkühlung und ohne an der Volt-Schraube zu drehen mit mindestens 4.2GHz.
Wenn Intel konkurrenzbedingt müsste, dann gäbe es nicht nur i5-2500, i7-2600 und i7-2700, sondern auch noch i7-2800, i7-2900 usw.
Intel muss aber nicht und so kann man bei relativ niedrigem Takt mit sehr hoher Effizienz und rundum "umweltfreundlichen" Produkten bei der Kundschaft und in der öffentlichen Wahrnehmung punkten.

Die Verlangsamung der Prozesse würde ich aber nicht unbedingt in der Hauptsache auf einen Mangel an Konkurrenz schieben. Eher auf Marktrealitäten und die Bedürfnisse der großen OEMs. Wenn sich die PC-/Notebook-Verkäufe bei Dell, Acer, HP, Lenovo usw. wegen Verlangsamung des Wirtschaftswachstums schleppend gestalten, dann muss Intel diesen Großkunden Gelegenheit zum Durchschnaufen geben, so dass diese ihre Altbestände abverkaufen können.
Darin dürfte die Hauptursache liegen. Intel operiert ja nicht im Vakuum wo man neue Technologien nach dem Motto "Friss oder stirb!" auf den Markt wirft, sondern sie müssen schon ein wenig auf die Bedürfnisse und Befindlichkeiten ihrer Großkundschaft achten.
 
Voyager10 schrieb:
Das scheint bei dir als AMD Fan eine Frage des Glaubens zu sein das die HD4000 hätte nicht stärker ausfallen können !? Dabei brauchst du nurmal die DIE Größe bei Ivy Bridge sehen , selbst dort hätte Intel noch Luft nach oben gehabt und ob du das glauben willst oder nicht , wäre der Bulldozer besser geworden und näher mit SandyBridge zusammengerückt dann hätte Intel ein paar Grafikshader mehr in die HD4000 gemacht.

So funktioniert das aber nicht.

Wenn du mehr Shader auf den Chip packst, dann sinken auch automatisch die Yield-Raten. Dadurch steigen die Produktionskosten und der Chip wird viel zu teuer. Um die gleichen Yield-Raten bei mehr Shadern zu gewährleisten müsste Intel den Takt senken und dadurch würde die gewonnene Mehrleistung je nach Anwendung wieder verpuffen.

Intel traut sich nach wie vor nicht, die Architektur der hauseigenen IGP zu veröffentlichen und ich bin fest davon überzeugt, dass das eben genau an den angesprochenen Yield-Raten liegt. Woher willst du wissen, ob Intel nicht jetzt schon 25% mehr Shader als nötig verbaut hat, um die Yield-Raten zu steigern? Ein viertel des Chips ist dann totes Silizium und dann geht deine Rechnung nicht mehr auf.

Wenn es um die Fertigung von GPUs geht, dann besitzt AMD deutlich mehr Know-How als Intel und das wird sich auch nicht so schnell ändern.
 
@ nanoworks

Wieder eine Frage des Glaubens bei dir ! Wenn ausgerechnet die Anzahl der Grafikshader den Kombi-Chip verteuern würde dann wäre AMD jetzt schon pleite , die haben mehr Shader drin. Ausserdem kommt die Haswell GT3 mit mehr als doppelt soviele Grafikshader .
Sorry aber bis jetzt hast du kein glaubwürdiges Argument um meine These zu verwerfen.
 
Anbei poste ich mal einen Link/Auszug zu/aus einem Artikel, der für mich eher ein Indiz dafür ist, dass die Verzögerung in Fertigungsproblemen zu finden sein wird:
Kurz und bündig:
Ob Immersionslithografie, EUV-Lithografie oder Elektronenstrahllithografie, bei allen Verfahren krankt es an unterschiedlichen Stellen. Sei es am mangelnden Ausstoß (throughput) oder an steigenden Kosten (surmount spiraling cost barriers).
Auch ist Intels Einstieg beim Fab-Ausrüster ASML ein Indiz dafür, dass dringend Kapital benötigt wird, um Fortschritte für kleinere Fertigungsstrukturen zu erzielen.
 
nanoworks schrieb:
AMD ist Intel Lichtjahre vorraus wenn es um GPU geht, ganz gleich ob in der Fertigung oder in puncto Treiber. Immer wieder machen die User hier den Fehler und reduzieren die APUs auf Grafikausgabe und CPU-Rechenleistung und vergessen dabei, dass der GPU Part ebenfalls über richtig viel Rechenleistung verüfgt. GPGPU ist das Stichwort. Und GPGPU bringt eben nicht den kleinen Leistungsvorteil von 10 oder 20%, wir reden hier über Faktor zwei oder drei oder gar vier.

Bei parallelisierbaren Aufgaben wird Intel von AMD in den Boden gestampft werden und darauf arbeitet AMD mit der Full Fusion hin. Pipi hat es im Vishera Thread angesprochen: Die APU muss als Einheit verstanden und darf nicht auf die Summe ihrer Teile reduziert werden.

Dein Wort in Gottes Ohr!
:)
Ich hoffe du behälst Recht!

nanoworks schrieb:
Je mehr Knete man macht, desto intensiver muss man forschen. Alles andere wäre total bescheuert.

Wer sagt denn das Intel nicht mehr forscht?
Aber man muss auch strategisch planen.
Umso schneller man forschen will, umso teuerer und ineffizienter ist das.
Das ist das Gesetz des geringer werdenden Ertrages.

Das Interesse von intel, die alten Produktionsprozesse so lange wie möglich zu nutzen ist ja wohl hoffentlich für jeden nachvollziehbar: ist wie mit den AKW hier in Deutschland: umso länger man sie nutzt, umso mehr Gewinn werfen sie ab, da sie ja bereits bezahlt sind.
Genauso ists bei intel.

Klar forschen die nebenher nicht zu knapp weiter, da hast du schon recht, alles andere wäre dumm.
Aber:
1. sie forschen nicht auf Volldampf, wie ich schon schrieb ist das ineffizinet (abnehmender Ertarg, exponentiell steigende Kosten)
2. sie verzögern m.E. dennoch den Marktstart von Haswell. Strategisch können sie damit flexibel reagieren.
Ich wette, wenn AMD JETZT mit einer Hammer-CPU zu einem Hammerpreis käme, würde Intel sich raffen, und den Haswell auch doch zu geplanten termin lancieren können.
 
Wollen wir erst mal sehen wie die Abwärme ist, soviel mir bekannt ist war die Abwärme beim „Ivy Bridge“ schon fast an der grenze, je kleiner die Die und die Grafikeinheit wird umso größere Probleme gibt es bei der Kühlung.


Ich war kurz davor mir wieder einen AMD Prozessor zuzulegen, nur das was mir leider von AMD Geboten wurde war mir einfach zu schlecht gegenüber der „Sandy Bridge“ so ist es eben ein i7-2600k geworden.
 
Zuletzt bearbeitet:
für den zocker bringt die entwicklung der iGPUs auch einen entschiedenen vorteil... was passiert wenn deine GPU abraucht? shit.. da musste entweder wen finden der dir eine leiht, dir eine neue bestellen und die dann nach 2 wochen zurücksenden, ersatz wirklich kaufen oder mehrere wochen ohne PC auskommen.
Wie ihr habt keine alte 8800GTX im Schrank? Alles verkauft? Ein low End Ersatz kostet auch nur ein paar € wenn man die günstigste neu kauft. IGPU ist total sinnlos in einem Gamer System. Die macht nur Sinn in Verbindung mit Optimus im Notebook. Und natürlich für Intel da ihre GPU Verkäufe gepusht werden.

Jeder Prozessor hat zwei Stromsparvarianten, eine Variante mit freien Multiplikator, 3 unterschiedliche IGPs und noch min 3 verschiedene Chipsätze.
Da kommt wirklich noch mehr Chaos auf uns zu. Auch solche schweren Fehler wie beim Sandy Chipsatz dürfen nicht mehr passieren, das ganze Gebilde wird um einiges komplexer umso mehr das ganze fusioniert.
Bei parallelisierbaren Aufgaben wird Intel von AMD in den Boden gestampft werden und darauf arbeitet AMD mit der Full Fusion hin.
Die letzte Fusions Stufe dürfte tatsächlich was reißen. Ist aber noch ein Langer Weg und AMD muss den Weg erst mal überstehen.
 
Zuletzt bearbeitet:
Kinkaku-ji schrieb:
Anbei poste ich mal einen Link/Auszug zu/aus einem Artikel, der für mich eher ein Indiz dafür ist, dass die Verzögerung in Fertigungsproblemen zu finden sein wird:

Kurz und bündig:
Ob Immersionslithografie, EUV-Lithografie oder Elektronenstrahllithografie, bei allen Verfahren krankt es an unterschiedlichen Stellen. Sei es am mangelnden Ausstoß (throughput) oder an steigenden Kosten (surmount spiraling cost barriers).
Auch ist Intels Einstieg beim Fab-Ausrüster ASML ein Indiz dafür, dass dringend Kapital benötigt wird, um Fortschritte für kleinere Fertigungsstrukturen zu erzielen.

Schöner Link!
Danke, das ist auf jeden Fall interessant.

Und wäre auch relevant für eine Verzögerung von Haswell, wenn er nicht auf 22nm-Technik basieren würde.
Wie Ivy Bridge... ein Verfahren, was also eigentlich schon fabrikreif ist.
Von dieser Seite kann die Verzögerung von Haswell also eigentlich garnicht kommen, weil er in einem Prozess hergestellt wird, mit dem auch die Ivy heute schon ausgeliefert wird.

Wenn es Probleme mit 22nm geben würde, dann dürfte intel auch die IvyBridge nicht liefern können...
 
Voyager10 schrieb:
Wenn ausgerechnet die Grafikshader den Kombi-Chip verteuern würde dann wäre AMD jetzt schon pleite , die haben mehr Shader drin.
Ausserdem kommt die Haswell GT3 mit mehr als doppelt soviele Grafikshader .
Sorry aber bis jetzt hast du kein glaubwürdiges Argument um meine These zu verwerfen.

Du solltest mal genauer lesen:

AMD kann GPU. Intel kann es nicht. Deswegen wird es für AMD auch keine Probleme mit den Yiel-Raten geben.

AMD verwendet für Trinity VLIW4. Das ist die Architektur der HD 6900er Karten. Diese GPUs können von AMDs Auftragsfertigern mitlerweile im Schlaf geliefert werden, vor allem wenn sie so wenig Takt und Shader besitzen. Es ist absolut realistisch davon auszugehen, dass Intels Fertigung deutlich schlechter läuft.

Und eine Verdopplung der Shader hat nicht wirklich viel Aussagekraft, da niemand ausser Intel selbst Details der Architektur kennt. Vielleicht werden beim Schritt auf Haswell signifkante Änderungen vorgenommen, aufgrund denen die Verdopplung wieder verpufft. Für AMD Kaveri werden genau so viele Shader vermutet wie für AMD Trinity. Allerdings nutzt Trinity aufgrund der VLIW4-Architektur 4D Shader und Kaveri aufgrund von GCN 1D Shader. Trotz gleicher Anzahl der Shader wird die Performance trotzdem steigen.
Ergänzung ()

Unlimited1980 schrieb:
Wer sagt denn das Intel nicht mehr forscht?

Voyager10
 
Wollen wir erst mal sehen wie die Abwärme ist, soviel mir bekannt ist war die Abwärme beim „Ivy Bridge“ schon fast an der grenze, je kleiner die Die und die Grafikeinheit wird umso größere Probleme gibt es bei der Kühlung.

Das hängt bei IvyBridge einzig und allein nur damit zusammen weil sie dieses mal unter der Metallkappe nur einfache Wärmeleitpaste haben und kein Flüssigmetall mehr wie bei SandyBridge , dadurch erhitzt sich die IvyBridge DIE eben schneller .
Das kann man gut nachvollziehen indem man unter einem Kühlkörper zb. 2 Wärmeleitpads legt und den Metallabstand zw. CPU und Kühlkörper vergrößert und schon heizt sich die CPU mehr auf unter Last, ich habs getestet .

@ nanoworks
Ist schon in Ordnung, du glaubst es einfach nicht das Intel aus IB hätte noch mehr herausholen können , einen stichaltigen Beweis dafür hast du aber nicht...
 
Zuletzt bearbeitet:
Unlimited1980 schrieb:
Der Rest, den ich schrieb ist ja eher ein logischer Gedankengang, (daraus folgt das, daraus folgt jenes) den muss man nachvollziehen oder (bitte sachlich begründet) ablehnen.
Quellen zu logischen Schlussfolgerungen gibts nur im eigenen Hirn... ;)
Die Sache ist, wie Du dem Threadverlauf entnehmen kannst, dass deine Logik nicht von allen geteilt wird. Logische Alternativen habe ich Dir auch genannt. ;)

Lentztendlich bleibt das Ganze wohl eines: Spekulatius!
 
Zuletzt bearbeitet: (Nachtrag)
Zurück
Oben