News Intel Software Defined Silicon: Aufwertbare Prozessoren könnten zurückkehren

hört sich nach Problemen an.
Sind die Yields so gut bei Intel?
werde ich sicher nirgenst einsetzen.
 
  • Gefällt mir
Reaktionen: Blueztrixx
Negativ betrachtet - noch mehr eingebaute Sicherheitslücken ab Werk. Und wenn dann erst die key-gens aus den Grauzonen des web die malware im Hintergrund gleich mitbringen - hurra. Positiv betrachtet heißt das wohl "Hey Leute - wir haben mehr gutes Silizium als der Markt abnimmt".
 
melemakar schrieb:
Du weißt aber, dass wenn du dir z.B. eine RTX3080 kaufst, du den gleichen Chip (GA102) wie auf der RTX3090 erworben hast, aber um fast 20% beschnitten ist? Würdest du dir also nie im Leben eine RTX3080 kaufen?
Das ist nur ein Beispiel von Vielen (das erste, das ich gefunden habe ;))

Ist und seit "Ewigkeiten" Gang und Gebe, dass beschnittene Chips als "kleinere" verkauft werden.
Ob die Beschneidung jetzt physisch passiert, oder per Software...

Aber hauptsache sich künstlich&unnötig über so etwas aufregen, wo noch gar nicht alle Details bekannt sind?
Schon fast wieder typisch deutsch würde man meinen
schonmal was von yieldrate gehört?
meist kann der Hersteller die Parameter bei den beschnitten chips nicht garantieren.
du basht hier herum, scheinst aber 0 plan zu haben
 
pvcf schrieb:
Für mich macht jetzt erst dieser TPM2 zwang auf Windows11 erst richtig Sinn mit solchen per Software upgradebaren Cpu's.
Interessant welche Rolle spielt das TPM dabei?


Allerdings darf intel nicht vergessen Linux auch dahingehend zu ändern vor allem weil ein Großteil der Server mit Xeons unter Linux betrieben werden.
 
FeelsGoodManJPG schrieb:
Chips sind keine Autos, bei denen man einfach alle im Vollausbau herstellt und keine Mehrkosten dadurch hat.
Äh doch. Das trifft auf Chips sogar ziemlich genau zu, weil das Material selbst praktisch nichts kostet und gerade wenns um einzelne Features geht und nicht um ganze Kerne oder Massen an cache, diese auch recht wenig Platz auf dem Chip brauchen.

Egal ob AMD, Intel, Nvidia etc: Es werden viel mehr Varianten verkauft als physisch unterschiedliche Chips gefertigt werden. Natürlich wird das zum Teil genutzt, um auch Teildefekte Chips noch verwenden zu können, aber wenn man von der aktuellen Lage mit extremer Chipknappheit mal absieht gibts keinen Grund anzunehmen, dass die Anzahl an genau passend teildefekten Chips der jeweiligen Nachfrage entspricht. Also wird man schlicht funktionierende Schaltkreise deaktivieren um die Nachfrage im Mainstream (egal ob im Mobil, Desktop oder Server bereich) decken zu können.
 
  • Gefällt mir
Reaktionen: pvcf
cloudman schrieb:
Allerdings darf intel nicht vergessen Linux auch dahingehend zu ändern vor allem weil ein Großteil der Server mit Xeons unter Linux betrieben werden.

Das ist klar, steht ja im Artikeltext, dass die diese Info überhaupt aus einem Linuxport haben.
Eventuell läuft die CPU halt nur Vollspeed wenn ein Intel"treiber" installiert ist der die Cpu-id abfragt und mit einer Datenbank online abgleicht. Und um da nicht per Software bzw Hack dazwischenzufunken, wird eben TPM2.x benötigt.
Es kann aber auch einfach ansersherum sein: Intel wusste dass eben TPM2 ab 2021 implementiert wird und haben das als Sicherheit gegen einen Hack für freischaltbare Hardware willkommen geheißen und versuchen es halt nochmal ..

Ps.:Ja, ich weiss dass Linux das schon länger Supported, aber solche Design und Produktsionsphasen für Cpu's dauern halt auch ein paar Jährchen
 
Zuletzt bearbeitet:
nervenjere schrieb:
meist kann der Hersteller die Parameter bei den beschnitten chips nicht garantieren.
Arbeitest du bei Nvidia, oder woher weißt du, dass das meistens so ist?

Im moment (extreme Chip Knappheit) würde ich ja zustimmen, dass man jeden Chip, den man fürs Flaggschif nutzen kann auch da einbaut, weil die Nachfrage eben auch auf dem Level das Angebot übersteigt. Unter normalen Umständen fände ich es aber schon erstaunlich, wenn immer nur genauso viele Chips ohne bzw. mit genau der richtigen Anzahl an Fehlern produziert würden um die jeweilige Nachfrage zu decken.
 
PS828 schrieb:
Und nicht wie hier: für nur 100 Euro Aufpreis 100 MHz mehr Takt und wenn wir Wollen gibt's HT obendrauf (übertrieben gesagt)
Beim Originalen Versuch war es ja gerade mal von 3 auf 4MB L2 Cache und HT für den Pentium Dual-Core für 50€ (Original Preis 80€)
Ergänzung ()

Cruentatus schrieb:
Zudem lassen sich dann keine teildefekten Chips mehr für die kleineren Prozessoren einsetzten, da sie ja freischaltbar sein müssen
Blödsinn - du kannst immer noch eine Pentium/Core Linie haben, die es partout nicht unterstützt

Z.B.
12500 = normal
12550 = update fähig
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Miuwa
FeelsGoodManJPG schrieb:
Chips sind keine Autos, bei denen man einfach alle im Vollausbau herstellt und keine Mehrkosten dadurch hat.
Das Problem bei Autos ist, dass man als Kunde den Kabelbaum einfach mit bezahlen muss.

Kabelbäume sind auch nicht billig. Aber in der Herstellung des Autos wäre eine Separation teurer.
 
Fehlt nur noch der Fertig-PC, wo man wie am TV dann mehrere Smart-Card-Slots hat, wo man dann seine CPU und CPU Aufrüstkarten reinstekcne kann ^^
 
Wär ja schön, wenn Intel seine Fabrikation so gut aufgestellt hat, daß derartige Freischaltungen auch was bringen. Denn sowas macht ja nur Sinn, wenn sie genug CPUs mit entsprechend Reserven haben, die dann mit Software aktiviert werden können. In jüngerer Zeit wurde das ja wohl eher über Binning gemacht.
 
AlanK schrieb:
In der Autoindustrie völlig normal geworden.
Viele Funktionen sind verbaut müssen aber im Steuergerät, online oder Navi freigeschaltet werden.
Trotzdem Mist.
 
Cruentatus schrieb:
Bei größeren Chips nimmt die Yield deutlich ab, man wird also ohnehin verschiedene 'Fertigungslinien' bzw. Masken haben um den Ausschuss zu reduzieren.

Bei entsprechend ausgereifter Produktion scheint man sich die Verschwendung an Chipfläche leisten zu können um immer große CPUs zu fertigen. Bei Coffee Lake hat z.B. Intel laut Wikichip noch 2, 4, 6 und 8 Core Dies gefertigt. Bei Comet Lake gab es laut diverser Tech Seiten (sorry keine Lust die Links rauszusuchen...) nur noch 6 und 10 Core Dies. D.h. 4 und 8 Kerner waren immer teilaktivierte Chips. Und das immer genug Ausschuss gibt, wo zufälligerweise nichts kaputt außer 1 oder 2 Kernen ist einigermaßen unwahrscheinlich. Man kann also davon ausgehen, das etliche 4 und 8 Kerner in Wirklichkeit komplett funktionsfähige 6 und 10 Kern Dies sind. Beim i5 (6 Kerne) konnte man ein 6 Kern oder ein teilaktives 10 Kern Die erwischen.

Genauso wird der teilaktive Cache z.B. im Core i3-10100 auch einfach nur künstlich beschnitten sein.

Cruentatus schrieb:
Zudem lassen sich dann keine teildefekten Chips mehr für die kleineren Prozessoren einsetzten, da sie ja freischaltbar sein müssen - Es müssen also auch die günstigeren Prozessoren voll intakt sein. Das erhöht wiederum den Ausschuss.
Falls man eine relevante Menge von teildefekten Chips hat, kann man immer noch verschiedene SKUs draus machen. So wie es heute K und F gibt, könnte man auch (nicht-)upgradebare SKUs anbieten.

PS828 schrieb:
Aber was mich hier stört ist dass ich nicht etwa einen Teildefekten Chip habe der nunmal so funktioniert wie bezahlt sondern aktiv einen funktionierenden Chip untergeschoben bekomme welcher locker auch als große CPU hätte verkauft werden können und stattdessen jetzt zur Hälfte brach liegt.
Kann Dir heute auch passieren. Nur das Du es weder weißt noch eine Chance hast es zu ändern. Ist nur psychologisch ungünstig.
Künstliche Marktsegmentierung ist doch sowieso schon extrem verbreitet, nicht nur bei Chips. Wenn günstige Mainboards z.B. kein USB 3.2 gen2 haben, obwohl der Chipsatz es bietet. Die ganzen Intel Chipsätze funktionieren auch so. Wenn Du einen B Serie Chipsatz hast, dann werden bestimmte Funktionen des Prozessors bei der Initialisierung abgeschaltet. Im Grunde genommen funktioniert der Chipsatz als "Dongle" für den Prozessor. Das geht ja soweit, das bei Chipsätzen wie dem H410 nur noch ein DIMM je Speicherbank geht oder die Anzahl der Displays von 3 auf 2 reduziert wird. Alles Funktionen die eigentlich komplett im Prozessor liegen.


FeelsGoodManJPG schrieb:
Man will die besten Chips günstig verkaufen, damit der Kunde sie eventuell upgraden kann? Klingt nach Verlusten, wenn man die Preise nicht völlig überzogen gestaltet.
Hersteller müssen oft auch die preisbewussteren Marktsegmente bedienen, selbst wenn sie dabei keinen oder wenig Gewinn machen, um nicht ihrer Marktposition zu schaden. Sieht man zur Zeit bei AMD, dadurch dass sie z.B. keine günstigen APUs im Preisbereich < 200 EUR haben, überlassen sie das Feld komplett Intel. Bei Endkunden kann man das vielleicht noch verschmerzen, aber wenn man die OEMs nicht beliefert, wenden die sich möglicherweise auch langfristig von einem ab. Mit Intel kann ein Hersteller ein komplettes Lineup vom 300 EUR Billig PC bis zum Highend mit einer Chipfamilie bedienen. Bei AMD geht das zur Zeit nicht, das wird ihnen langfristig schaden.

FeelsGoodManJPG schrieb:
Skalierung auf "Serverebene" funktioniert softwareseitig mit z.B. Kubernetes.
Sobald man kommerziell lizensierte Software (z.B. Oracle) einsetzt, zahlt man unnötig Geld für nicht benötigte CPU Kerne. Daher gibt es spezielle SKUs wie 16 Kern Xeons für genau diesen Fall. Dumm nur, wenn die Anforderungen später steigen, dann ist der Server eine Sackgasse. Hier würde eine Upgrade Option Investitonssicherheit und Nachhaltigkeit erhöhen und dem Kunden einen wirtschaftlichen Vorteil bringen.
Daher macht so eine Feature dort auch mehr Sinn als im Client Bereich.

Miuwa schrieb:
im moment (extreme Chip Knappheit) würde ich ja zustimmen, dass man jeden Chip, den man fürs Flaggschif nutzen kann auch da einbaut, weil die Nachfrage eben auch auf dem Level das Angebot übersteigt.
Wie oben gesagt, wenn man nur den "Flagschiff" Bereich bedient kann das Nachteile haben.

tukse schrieb:
Jetzt wissen wir wofür TPM benötigt wird...
Dafür braucht man das TPM nun wirklich nicht. Intel hat für den Microcode, der signiert und verschlüsselt ausgeliefert wird, schon eine Lösung im Prozessor. Zusätzlich gibt es die Intel CSME im Chipsatz (die übrigens ja auch bei Bedarf das TPM implementiert). Intel schaltet heute ja schon Funktionen (wie TSX) per Microcode ein oder aus.
Bei HT würde das vermutlich heute auch schon gehen.

Alder-Lake und Nachfolger bieten mit ihrer heterogenen Architektur ja noch viel mehr Konfigurationsoptionen als die heutigen CPUs.

Wenn man den Gedanken zu Ende spinnt, löten in Zukunft Dell, Lenovo und HP nur noch einen Einheitsprozessor auf das Mainboard ihrer Laptops und der Rest wird per Konfiguration geregelt. So wie heute auch bei Autos 3-4 Motorvarianten nur noch per Chiptuning unterschieden werden.
 
Naja, wenn man nen i5 zum i9 "keksen" kann, soll's mir recht sein^^
 
PS828 schrieb:
Was ein Unsinn. Sowas ist nichts was ich mir antun würde.
Wenn ich den kompletten Chip bezahlt hab möchte ich auch alles davon nutzen sonst dürfen sie die Dinger behalten.
Naja bisher wird er halt nicht per Software halb deaktiviert sondern per Laser halb kaputt geschnitten um die entsprechende Leistung zu haben. Fühlt sich vielleicht doof an, aber technisch und finanziell macht das eben Sinn, statt für jede Abstufung komplett eigene Chips zu bauen.
Und wenn jemand upgraden möchte, hat er es ja so auch tatsächlich deutlich einfacher und günstiger.
 
minimii schrieb:
Einserseits ja.
Andererseits ergeben sich durch die Vereinfachung der Produktion wiederum Vorteile für den Hersteller.

Was durch bessere Effizienz auch wieder eine bessere Ressourcennutzung wäre.
Wobei hier natürlich eine Produktion mit wenig Ausschuss Basis sein müsste.

Naja, AMD hat das doch sehr klug gelöst mit den Chiplets. Da braucht man keine Freischaltcodes auf nem Riesenmonolythen der z.B. 64Kern könnte aber nur mit 16 gekauft wird. Aber Intel meinte ja, dass "zusammengeklebte CPUs" nicht das Wahre wären. Denke nicht, dass so große Chips einfach zu produzieren sind. Für Unternehmen ist die Idee interessant aber die Konstellationen müssten passen. Dann wiederum kommen Themen wie Sicherheit, Technologie neuer Generationen, Energiebedarf alter Systeme usw. meiner Vorredner auf. Schwieriges Thema und ich denke nur im Speziellen anwendbar. Wir leben halt in einem Zeitalter der stetigen und sehr schnellen Veränderung. In paar Jahren wird das wohl weiter extrem an Fahrt aufnehmen wenn die Quantentechnologie richtig losstartet.
 
Das ist mal wieder eine ganz miese Masche von Intel.
Intel ist einfach eine durch und durch verdorbene Firma.
 
ro///M3o schrieb:
Naja, AMD hat das doch sehr klug gelöst mit den Chiplets. Da braucht man keine Freischaltcodes auf nem Riesenmonolythen der z.B. 64Kern könnte aber nur mit 16 gekauft wird.
Ein CCD hat bei AMD aber eben auch 8 Kerne, bei 4 und 6 Kern CPUs hat man also genauso ein teilaktives Die.

Durch die Auftragsfertigung bei TSMC wäre jede zusätzliche Die-Variante ein neuer Auftrag mit entsprechenden Setup-Kosten.
Intel mit eigener Fertigung kann leichter und günstiger verschiedene Maskensets für unterschiedliche Dies hausinternen in Auftrag geben.

Intels erstellt also unterschiedliche Konfigurationen auf Die Ebene als durch Chiplets. Wobei Intel ja auch für die Zukunft “Tiling“ Konzepte plant. Die funktionieren aber anders als das MCP (Multi Chip Package), dass AMD zur Zeit verwendet. Ich vermute aber bei AMD wird das mittelfristig auch verschwinden (zumindest im „Mainstream„ Bereich bis ca. 12 Kerne), denn MCPs sind teuer. Die aktuellen Ryzen 5000 APUs zeigen, dass sie mit dem Chiplet Design konkurieren können.
 
Zurück
Oben