News 10-nm-Produkte: Intel zeigt CPUs, SoCs und gestapelte Chips zur CES 2019

MK one schrieb:
jetzt 2019 ist es offenbar tatsächlich soweit ....

Mit oder ohne Baumarktkühlaggregat?
Intel sollte man erst glauben wenn die Dinger in annehmbaren Stückzahlen kaufbar sind.
 
  • Gefällt mir
Reaktionen: darkcrawler
Holt schrieb:
Hatte mich verschrieben und habe es korrigiert. Intels Meinstream CPUs kamen zuletzt immer so im Oktober, AMDs im April, Mai. Intel dürfte daran arbeiten Ice Lake auch wieder im Oktober zu bringen und mit den Desktop RYZEN 3000 würde ich erst zu Mitte des Jahres rechnen, aber morgen dürfte man mehr darüber erfahren.

So macht das dann wider mehr Sinn *thumps up*
Wobei ich den richtigen Konter erst mit dem 10nm Lineup sehe, ich kann mir nicht vorstellen, dass wenn wieder in 14nm gefertigt wird, man mit dem Verbrauch mithalten kann.
Aber lassen wir uns mal überraschen was morgen so erzählt wird.
 
  • Gefällt mir
Reaktionen: abcddcba
smalM schrieb:
@MK one
Bisher bekamen Xeon üblicherweise eine neue Architektur erst ca. 1 Jahr nach dem Desktop.

und der 10 nm sollte schon 2016 in allen Bereichen da sein , was ist draus geworden ?
Ich sagte ja bereits es ist auffällig das ein Desktop Demo System fehlte und statt dessen der am spätesten erscheinende Xeon Server Chip mit einem Demo System vertreten ist .
Die Konkurrenz macht es vermutlich , der Epyc Rome Marktstart ist bald ... , man wollte was zeigen ...
 
BiGfReAk schrieb:
Die Intel CPUs sind beim encodieren in x265 deutlich schneller als AMD, eben wegen den AVX Befehlssätzen.

1546961832974.png


Einen 1950x bekommst du aktuell für 550 Euro +/-

Einen 7960x für um die 1400 Euro.
 
  • Gefällt mir
Reaktionen: Blumenwiese und Deepfeaver
@Faust2011

nun male mal den teufel nicht an die wand. silizium ist ein hervorragender wärme leiter. bei den stacks würde ich mir die kleinsten sorgen um abwärme machen. bei diesen größen können leckströme im 3 dimensionalen raum auch gerne mal unangenehmere folgen haben, als simple wärme probleme. und *pfui* ... 15W oder 45W sind ja nun wirklich keine cpu. das will mal eine cpu werden oder man nennt es cpu´chen :evillol:

da vertraue ich den ingenieuren bei den blauen, ich kann mir nicht vorstellen, dass da nur fuscher am werk sind.

leider spekulieren alle immer nur und auch ich würde gerne mal ein hands-on bei den neuen sachen machen: "Die Auslieferung der Chips hat bereits begonnen, erklärte Intel. Im ersten Halbjahr sollen sie offiziell vorgestellt werden. " aber gerade der 48kern mit 12kanal interface wird ja gehütet wie ein mega geheimnis. kA ob er so schlecht oder so gut ist. verkaufen muss er sich ja offensichtlich wie geschnitten brot bei den top5 hardware abnehmern wie amazon oder google....

mfg
 
werpu schrieb:
Die Frage ist wie lang die Kernzahl des 9900k mitmacht, derzeit gibt es ja ein massives Mehrkernsteigerungsrennen, dass AMD losgetreten hat. Gibt ja schon massive Gerüchte dass AMD die Kernanzahl bei der nächsten Generation die heuer ansteht wieder verdoppeln wird.
Erfahrungsgemäß werden Ressourcen genutzt sobald sie in der breiten Masse vorhanden sind.
Letztes Jahr durften sich die 4c/4tz und 4c/8t Benutzer schon partiell in den Allerwertesten beissen, die das Jahr davor noch der vernünftige sweet Spot waren (6/8 Kerne braucht kein Mensch kauft lieber i7 wegen der besseren Single Core Leistung... damalige Kommentar als Amd vorgeprescht ist)
Ich würde bei der derzeitigen Entwicklung nicht mehr als 300 Euro für einen Prozessor ausgeben, man weiss nie wie lang der halten wird, was ja auch positiv ist, der PC Prozessormarkt ist sowieso fast 10 Jahre im Dornröschenschlaf gelegen und hat alles aufgehalten, war natürlich billig für die Kunden weil man mit einem Prozessor gleich 2 Konsolengenerationen erschlagen konnte. Auf der anderen Seite durfte man bei Intel dann die Monpolpreise zahlen und nicht zu knapp.

Heutzutage ist es ja schon länger so, dass die Leistung der 4-Kern-CPUs der Generation aus dem Jahre 2015-1017 für die allermeisten Anwendungen und Spiele vollständig ausreicht. Wenn ich ein 4K-Movie rendere, braucht ein 6700K nur etwas länger, als ein 9900K, was nicht sonderlich nerviger ist, weil wie oft macht man sowas? 1-2 mal am Tag? Was auszuhalten ist. Das wird sich für einen 6- oder 8-Kerner in den nächsten 5 Jahren nicht wesentlich ändern.
 
Soweit würde ich nicht gehen , für den Desktop mögen die stagged Devices nicht taugen , aber der Markt für embedded Soc Systeme ist potenziell riesig , Stichwort " smarte Geräte " = der Kühlschrank der selbstständig den Einkaufszettel aktualisiert , der Herd der sich selbst abschaltet wenn etwas anzubrennen droht usw , usw, usw
Sowas gibt es zwar schon , aber nur in der absoluten Luxusklasse , mit solch kleinen Platinen wie gezeigt lässt das sich fast überall einbauen mit vielleicht 100 - 200 Euro Aufpreis , allerdings hat Intel da kein Alleinstellungsmerkmal , ähnliche embedded Soc Systeme bietet AMD auch , auch wenn bis jetzt nicht der Ram in den Die integriert wurde , machen könnte es AMD ebenfalls . Allein die dreifache Stapelung ist neu und erlaubt noch kleinere Platinen .
 
MK one schrieb:
Stichwort " smarte Geräte "


ich muss da immer an qualityland von mark uwe kling denken...die smarten raketen bekommen als KI das bewußtsein eines selbstmord attentäters und sind sauer, wenn sie nicht fliegen dürfen :D

ganz so krass wird die zukunft (hoffentlich) nicht, aber die einsatz zwecke solcher "mini" chips sind schon gigantisch und 5nm steht ja quasi schon in der tür, wenn man alles glauben darf, was man hört.

mfg
 
werpu schrieb:
Erfahrungsgemäß werden Ressourcen genutzt sobald sie in der breiten Masse vorhanden sind.
Wieder jemand der von der "breiten Masse" spricht. Was denkst du denn was die Masse ist? Die CB User? Aber interessiert mich wirklich, was ist fuer dich die "breite Masse"? Kannst du das evtl. auch in Zahlen ausdruecken?

ich glaube die Masse
- hat ne 4C CPU zu Hause
- ruestet alle 5+ Jahre mal auf, wahrscheinlich sogar eher wenn nur mal was defekt ist
- sind fuer mich nicht Gamer, sondern Internet, Office, Multimedia Anwender
- gibt nicht mehr als 200 Euro fuer ne CPU aus, meist in nem Fertig PC
 
  • Gefällt mir
Reaktionen: Unnu
pipip schrieb:
Deshalb gab es ja auch KabyLake-X, welcher ziemlich ein "Flopp" war, als dann Threadripper kam.
Das KB-X ein Flop wird, war vorherzusehen, denn die CPUs konnte keinen der Vorteile des S.2066 nutzen, da sie auch nur 16 PCIe Lanes und Dual Channel RAM boten, während Skylake-X eben QuadChannel RAM und mehr PCIe Lanes haben. Der einzige Vorteil war diese dann ggf. übertakten zu können, aber dies ist einfach nicht genug um die teureren X299er Boards zu rechtfertigen.
value schrieb:
gibt's also vor Q1 2020 fix keine Desktop Chips.
Wo steht das? Ich würde vermuten das Intel alles dransetzt um die Desktop Ice Lake wieder im Oktober auf den Markt zu bringen, die Vorgänger kamen ja auch jeweils im Oktober auf den Markt.
value schrieb:
Zumal Intels erste Generation einer neuen Fertigung noch nie ein guter Kauf war.
Die erste 10nm Generation ist Cannonlake und die gibt es z.B. in bestimmten NUC zu kaufen. Boardwell war als ersten 14nm Generation im Desktop auch nicht der Bringer, dann kam aber Skylake auch schon bald hinterher und eigentlich waren Broadwell für den Desktop gar nicht geplant, aber dann gab es so einen Aufschrei das Intel sie doch noch gebracht hat, aber eben auch nur zwei Modelle.
werpu schrieb:
Die Frage ist wie lang die Kernzahl des 9900k mitmacht,
Wieso sollte die Kernzahl von 8 Kernen was nicht lange mitmachen? Du sprichst in Rätseln. Soll die Frage vielleicht sein wie viel mehr Kerne Intel bei den Mainstream CPUs bringen könnte? Mit Doppelrungbus noch einige mehr.
werpu schrieb:
derzeit gibt es ja ein massives Mehrkernsteigerungsrennen, dass AMD losgetreten hat.
Eben, nur ist das im Mainstream nur beschränkt sinnvoll, da so viele Kerne auch gefüttert werden müssen, nicht nur mit Strom der dann wieder als Wärme abgeführt werden muss, sondern auch mit Daten und da kommt man mit Dual Channel RAM an Grenzen, nur erhöhen mehr RAM Kanäle die Kosten sonst noch mehr, denn man braucht mehr Pins im Sockel und mehr Layer beim Mainboard.
Hopsekäse schrieb:
Dass Intel weiterhin das Maß der Dinge bei der Pro-Core-Leistung ist, bestreitet ja niemand (der bei Verstand ist). Und natürlich sind mehr Kerne für weniger Single-Core-Leistung ein Tradeoff (den man vor allem bei AMD dann eingeht).
Eben und um nicht komplett hinter Intel zu stehen, hat man mehr Kerne verbaut um wenigstens bei den Anwendungen vorne stehen zu können die viele Kern auch gut auslasten können. Also Anwendungen wie Rendering, nur kan nman damit eben die schlechtere Gaming Performance nicht kompensieren und das müsste AMD machen um Intel wirklich gefährlich werden zu können. Noch mehr Kerne im Mainstream werden also nicht wirklich mehr Verkäufe für AMD bringen, schon jetzt sind die 6 Kerner die meistverkauften RYZEN CPUs.

Außerdem haben die meisten die wirklich mehr Kerne brauchen weil sie häufig Anwendungen nutzen die von diesen profitieren, dann auch schon eine HEDT CPU mit entsprechend vielen Kernen.
smalM schrieb:
Ja, wirklich auffällig, daß Intel offensichtlich zuerst seinen größten Markt, nämlich Mobile, bedienen will, sowie seinen ertragreichsten Markt, nämlich Xeon. Echt 'ne dämlich Strategie....
Nein, dämlich ist hier was anderes. Die Strategie ist logisch, da man eben bei neuen Fertigungsprozess zuerst weder eine gute Yield bei großen Dies noch bei solchen für hohe Taktraten bekommt, also nimmt man zuerst die CPUs mit kleinen Dies die wenig Takt haben, weil die TDP den sowieso einschränkt, wie eben die U und Y Serien. Die arbeiten bei moderaten Taktraten wo die bessere Effizienz eben dann auch mehr Takt und/oder mehr Schaltungen erlaubt, was Intel offenbar für stärkere iGPU verwendet, bei Server CPUs verwendet man dies dann für mehr Kerne. Dann kommen die Desktop CPUs, die wollen zwar mehr Takt, haben aber immer noch kleinere Dies als die Server CPU, weshalb die eben zuletzt dran sind. Also dürfte Intel weiterhin noch nicht generell auf MCM bei den Xeons umsteigen oder wenn, dann nur bei bestimmten Modellen und da immer noch recht große Dies miteinander verbinden und nicht viele kleine wie AMD es bei Rome macht.
Ned Flanders schrieb:
Einen 1950x bekommst du aktuell für 550 Euro +/-

Einen 7960x für um die 1400 Euro.
Er hat von der Leistung geredet, du redest vom Preis- Leistungsverhältnis und das sind zwei verschiedene Dinge. Das man für die letzten Prozent der Spitzenleistung am meisten bezahlt, ist ja nicht neu und auch nicht nur bei CPUs so.
 
werpu schrieb:
Die Frage ist wie lang die Kernzahl des 9900k mitmacht, derzeit gibt es ja ein massives Mehrkernsteigerungsrennen, dass AMD losgetreten hat. Gibt ja schon massive Gerüchte dass AMD die Kernanzahl bei der nächsten Generation die heuer ansteht wieder verdoppeln wird.
Erfahrungsgemäß werden Ressourcen genutzt sobald sie in der breiten Masse vorhanden sind.
Deine Erfahrungen sind ziemlicher Unsin und/oder exrem pauschalisiert/aus dem falschen Markt geholt.

Fakt ist: Nicht alle Anwendungen lassen sich skalieren und viele Anwendungen lassen sich nur mit großem Aufwand skalieren. Die ersten XY Cores wurden über Jahre kaum ausgelastet und das wird sich mit der Anzahl der Kerne nicht verbessern.
Eine Anwendung auf 2 oder 4 Threads zu skalieren ist bedeutend einfacher als 16, 32+ Threads produktiv auszulasten.

Simples Beispiel: Kalkulationen in Excel: Wenn deine Berechnungen über diverse Felder laufen geht das idR. nur in einem Thread, weil jede weitere Berechnung auf das vorherige Ergebnis angewiesen ist.
 
Holt schrieb:
Er hat von der Leistung geredet, du redest vom Preis- Leistungsverhältnis und das sind zwei verschiedene Dinge.

Nein, er hat gesagt, "Die Intel CPUs sind beim encodieren in x265 deutlich schneller als AMD".

Dieses "deutlich" sind in der Realität 10%, erkauft durch einen Aufpreis von 250%. Letzteres mag nebensächlich sein für Leute wie Dich, aber für mich sind 100 Euro/((1/100)*Performance) eben nicht vollkommen belanglos.

Aber sorry, dass ich Deine Intelligenz da scheinbar beleidigt habe und Intel wohl zuunrecht übel nachgeredet habe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: darkcrawler
wobei bei Rome die FPU Leistung quasi verdoppelt wurde = statt 2 x 128 Bit sind es 2 x 256 Bit AVX , analog gehe ich beim Ryzen 3xxx ebenfalls von 2 x 256 Bit AVX aus , damit dürfte der " Vorteil " weg sein .
Intel hat zwar noch AVX512 , jedoch hat sich gezeigt das die Leistungsaufnahme drastisch steigt , sodas Skylake X Prozessoren deutlich runtertakten müssen , teils deutlich unter den Basistakt , wenn AVX512 intensiv genutzt wird
 
Nagilum99 schrieb:
Wenn deine Berechnungen über diverse Felder laufen geht das idR. nur in einem Thread, weil jede weitere Berechnung auf das vorherige Ergebnis angewiesen ist.
Eben und dies ist immer der Fall wenn eine Berechnung auf dem Ergebnis der vorherigen aufbaut, dann kann man dies nicht parallel Berechnen. Die andere ist, dass das Starten und Synchronisieren von Thread auch einige an Overhead für das OS bedeutet, dies lohnt sich also nicht für jede kleine Aufgaben in verschiedenen Threads zu erledigen. Daher skalieren eben vor allem Anwendungen gut über viele Threads bei denen jeder Kern möglichst unabhängig von den anderen auf einen eigenen Teil der Daten rechnet, wie bei Cinebench, wo man dies ja sogar während es Benchmarkes sehen kann. Solche Programme sind heute schon gut parallelisiert, denn CPUs mit mehr Kernen gibt es schon lange, die waren aber lange dem Workstations, Servern und HEDT vorbehalten.

Zu glauben nun könnten alle Spiele so umgeschrieben werden das alle Kerne auch ausgelastet werden könnten, ist aber eine Illusion, die geht wegen der Art der Sache nicht, bei Spielen gibt es Interaktionen, die Handlung eines Spieler beeinflusst was für alle anderen passiert, dies bedeutet eben von Synchronisation zwischen den SW-Threads und damit auf den Kernen der HW und dann müssen eben auch die Cacheinhalte alle gleich sein, was eben Zeit kostet um dies zu gewährleisten und schon bringen noch mehr Threads gar nichts oder am Ende sogar weniger Performance. Wer selbst Software entwickelt weiß, dass es bei der Parallelisierung Grenzen gibt, die meisten Gamer haben nur nie im Leben selbst parallele Programme geschrieben und auf Performance optimiert.
 
Ist es wieder nur der Core i3-8121U im Notebook?
:volllol::volllol::volllol:
 
Compu-Freak schrieb:
Heutzutage ist es ja schon länger so, dass die Leistung der 4-Kern-CPUs der Generation aus dem Jahre 2015-1017 für die allermeisten Anwendungen und Spiele vollständig ausreicht. Wenn ich ein 4K-Movie rendere, braucht ein 6700K nur etwas länger, als ein 9900K, was nicht sonderlich nerviger ist, weil wie oft macht man sowas? 1-2 mal am Tag? Was auszuhalten ist. Das wird sich für einen 6- oder 8-Kerner in den nächsten 5 Jahren nicht wesentlich ändern.
Ich hab schon einige Spiele (gerade im Emu Bereich) wo es mit einem 4 Kerner knapp wird, dazu die neuesten Ubisoft Titel und die Tatsache dass die nächste Konsolen generation fix 8c/16t haben wird und schon ist man spätestens 2020 mit einem reinen 4 Kerner als Spieleprozessor ziemlich am Ende.
Ergänzung ()

Ned Flanders schrieb:
Anhang anzeigen 740864

Einen 2950x bekommst du aktuell für 550 Euro +/-

Einen 7960x für um die 1400 Euro.

Für 10% mehr reine Prozessorencoding Leistung, ein Schnäppchen...
 
Zuletzt bearbeitet:
Salutos schrieb:
Den besten Leistungssprung der letzten 5 Jahre hat die SSD gebracht.
Nur dass ich meine erste SSD(eine OCZ Vertex 2 - mit dem guten alten Sandforce 1200-Controller) bereits 2010 in meinen damaligen Rechner eingebaut habe. Abgesehen davon kann mich erinnern, dass ich mir mit dem Kauf einer SSD damals extra Zeit gelassen hatte, weil die SSDs lange noch unverschämt teuer waren: zusammengebaut hatte ich mir den Rechner bereits 2007, hatte damals aber aus Kostengründen noch auf ein SATA-Raid gesetzt, um den Festspeicher-Flaschenhals zu überbrücken. Allerdings gab es die SSDs mit fast gleichen Leistungswerten schon damals. Eher anders herum: ich habe mir kürzlich eine nigelnagelneue SSD von Kingston gekauft(A400) mit dem neuen Phison-Chipsatz und muss sagen, dass sie gefühlt(IOPS) langsamer ist, als alle SSDs, die ich bisher hatte...Rückschritt durch Technik!

Insofern halte ich es, also den Leistungssprung dank SSDs in die letzten fünf Jahre zu datieren, grundsätzlich für verkehrt! Ursprünglich gab es nur die Wahl zwischen SLC-(extrem teuer) und MLC-Chips(immer noch unverschämt teuer). Inzwischen stapelt und mergt jeder Hersteller irgendwas kostengünstiges und nennt es V-Q-sonstwas-NAND oder Optane und unterm Strich ist es zwar billiger, aber halt auch nicht besser. Diese Kritik bezieht sich jetzt auf SATA-SSDs; bei m.2 bzw. PCIe gibts inzwischen durchaus brauchbare Alternativen. Ganz abgesehen davon, dass man sich durchaus fragen darf, was SATA-SSD oder 3,5" überhaupt noch soll, wenn man 2TB inzwischen auf der Größe eines USB-Sticks(nur viel flacher) gut unterbringt...
 
Zuletzt bearbeitet:
Also wann gibt es jetzt den i9-9900K Nachfolger? Weihnachten 2019? So wie man Intel kennt wird das mal wieder ein Paperlaunch, wenn überhaupt, Verfügbarkeit dann irgendwann 2020?
 
Hier eine News aus 2020: "Aktionäre verklagen Intel wegen falscher Prognosen"
:evillol:
 
Zurück
Oben