News Intel NUC 9 Extreme: Bei Ghost Canyon wird das Mainboard zur PCIe-Karte

und nach 2 Jahren wird dann das aus verkündet und es gibt keine Nachfolgerplatine. Das ist doch wieder so eine Totgeburt, wieviele andere davor auch.
 
Eigentlich sehr interessant, leider vermutlich beim Preis wieder deutlich über einfacher Desktop-Hardware
 
Nizakh schrieb:
Klingt alles sehr proprietär und damit erstmal uninteressant.
Das ist bei jedem anderen NUC nicht anderes und eigentlich gilt dies auf für fast alle anderen Fertigrechner, erst recht solche in sehr kleinen Gehäusen. Wer das nicht will, greift zum Selbstbau mit Standardretailkomponenten und lässt die Finger von allen Fertigrechnern.
B.XP schrieb:
Ich sehe ehrlich gesagt den Markt nicht.
Den sehe ich auch nicht so ganz, denn eigentlich ist die Kompaktheit der große Vorteil der NUC, aber davon bleibt bei dem hier mit 5l Gehäuse nicht viel übrig. Hoffentlich wird es auch weiterhin die kleinen NUC in der bekannten Form und Größe geben.
Laskaris schrieb:
Ich fände ein NUC-System mit ECC-Speicher interessant, als Mini-Workstation
Ja, zumal auf dem einen Bild ja ein CM246 Chipsatz genannt wird, also einer der auch Xeons mit ECC RAM unterstützt und von daher besteht zumindest ein wenig Hoffnung, dass Intel auch eine Version mit Xeon und ECC RAM nachschiebt.
 
  • Gefällt mir
Reaktionen: Laskaris
knoxxi schrieb:
Ein 500 Watt NT, maximal 225 Watt für die Graka. Für was zur Hölle ist denn die Differenz von 275 Watt? 😆

Na für die 14nm+++++++++++++++++++++++++++ (hab ich ein plus vergessen?!) Fertigung!
Die CPU wird bis kurz vor Max ab Werk hochgetaktet sein (auch als Tisch Heizung verwendbar...) um das letzte bisschen Leistung herauszukitzeln was die bisherigem CPU's (siehe 9900Xxxx) ja schon zu wahren Schluckspechten gemacht hat. Das Intel NUC 9 "Extreme" im Namen kommt nicht von ungefähr! ;)

PS: Ja mein Text fängt sarkastisch an aber er endet leider bierernst...:rolleyes:
 
Holt schrieb:
Das ist bei jedem anderen NUC nicht anderes und eigentlich gilt dies auf für fast alle anderen Fertigrechner, erst recht solche in sehr kleinen Gehäusen. Wer das nicht will, greift zum Selbstbau mit Standardretailkomponenten und lässt die Finger von allen Fertigrechnern.
Das ist richtig. Aber dann benötigt man auch keine Austauschbaren Komponenten bzw. gestaltet das System noch kompakter.
 
Ich finds schade dass Intel noch nicht die neuen 2.5Gbit LAN Chip(s) verbaut - aber immerhin sind’s zwei LAN-Ports. Das Teil hat bestimmt genug Power um als Multi-Gigabit Firewall zu taugen, dabei aber selbst nicht so extrem viel zu brauchen. Müsste man halt statt ner GPU ne NIC reinstecken.
 
xexex schrieb:
Das ist eine unsinnige Behauptung!

Es gibt einen Haufen Mini-ITX und uATX Boards und zig kleine Gehäuse. Niemand musst sich heute einen Gaming-PC in einem "normalen" Tower aufbauen.

Es ist vielmehr der Basteltrieb der Spieler und die so "moderne" RGB Beleuchtung und Wasserkühlung, was die klassischen Tower noch am Leben erhält. Im geschäftlichen Einsatz, bei den Spielkonsole oder als HTPC hat dieser Formfaktor schon längst ausgedient.

Naja, es ist keine unsinnige Behauptung. Ich rede jetzt nicht von den Selbstbauern, sondern von den normalen Consumern die sich ihren PC im Elektromarkt kaufen. Dort stehen weiterhin hauptsächlich Tower-PCs.

Und im geschäftlichen Einsatz, sehe ich ebenfalls noch immer über 80% Tower PCs von daher liegt es nicht am "Basteltrieb" der Spieler.
 
Hayda Ministral schrieb:
Erst mit dem 2012 vorgestellten Raspbi sind die 2013 vorgestellten NUC etwas in den Hintergrund getreten? Habe ich das so richtig verstanden?

Die ersten NUCs kamen 2012, da hatte zumindest ich Raspbi noch gar nicht auf dem Schirm...

zizzler schrieb:
Und im geschäftlichen Einsatz, sehe ich ebenfalls noch immer über 80% Tower PCs von daher liegt es nicht am "Basteltrieb" der Spieler.

Kommt vielleicht auf die Branche an. Ich sehe jedenfalls mehr Notebooks, Mini-PCs und Thin Clients als unförmiger Klötze ohne Inhalt um mich rum.

Wieso auch nicht, was soll man im Büro mit einem Tower?
 
Wattwanderer schrieb:
Ich habe mir einige Youtube Videos mit dem Gehäuse angeschaut. Ist ja eher Notebooktechnik. Als Grobmotoriker bleibe lieber bei solider Desktop Technik. Außerdem, da ist schon ein Gehäuse. Diese einfach wegzuschmeissen weil ich ein anderes will? Dazu ist mir das neue Gehäuse zu groß und zu teuer.

Du musst das Gehäuse das "schon da" ist ja nicht mitkaufen. Gibt die Platinen auch ohne Gehäuse.
Es lohnt sich aber soweit ich mich erinnere nicht diese Platinen zu kaufen weil sie nur geringfügig günstiger sind und man - zumindest bei den Modelle dich ich mir mal angeschaut hatte - noch ein Netzteil extra dazukaufen musste.

Dennoch: Die passive Kühlbarkeit ist realisierbar. Schon lange. Dass das nicht für 0 Euro geht ist schon klar, und das Gehäuse muss auch eine gewisse Oberfläche, entweder durch Finnen oder große Maße, haben damit der SoC die Abwärme loswerden kann.
Neben dem Gehäuse das ich verlinkt habe gibts auch noch andere in anderen Formen. Ich mag dieses nur deshalb weil es super in einen flachen Einschub in meinem TV-Lowboard passt.
 
Gamefaq schrieb:
die bisherigem CPU's (siehe 9900Xxxx) ja schon zu wahren Schluckspechten
Wie viel Strom die ziehen, hat man über die BIOS Einstellung selbst in der Hand. Ab Werk werden die CPUs in der Default Einstellung meistens übertaktet, oft sogar ganz massiv. Dies scheinen viele Leute noch immer nicht zu wissen, offenbar denken immer noch zu viele die CPU würde selbst entscheiden wie viel Leistung sie aufnehmen oder die Default Einstellungen würden den Intel Vorgaben entsprechen.

DocWindows schrieb:
Die passive Kühlbarkeit ist realisierbar. Schon lange.
Klar, denn passiv gekühlt bedeutet ja nur, dass die Hardware keinen eigenen Lüfter hat, aber nicht das sie auch immer ohne einen kühlenden Luftstrom auskommt. Um die 45W TDP alleine der CPUs zu kühlen, bräuchte man eine gewaltiges Gehäuse mit reichlich Kühlfinnen, aber die NUC sollen eigentlich klein und kompakt sein, auch wenn man das bei diesem Modell nicht mehr so wirklich erkennt.

Man findet auch kein Notebook mit so einer H CPU welches passiv gekühlt ist, selbst bei denen der U Serie (15W oder 25W TDP) ist kaum eines zu finden oder sogar gar keines, nur die Y Modelle werden auch in passiv gekühlten Notebooks verbaut.
 
Erinnert mich an den 386SX welchen ich hatte, aber damals war das glaube ich lediglich der mathematische Koprozessor auf dem board :D
 
Holt schrieb:
Den sehe ich auch nicht so ganz, denn eigentlich ist die Kompaktheit der große Vorteil der NUC, aber davon bleibt bei dem hier mit 5l Gehäuse nicht viel übrig.
Die "Karte" dürfte vielleicht auch nur mit einem Stromanschluss laufen, möglich wenn sich der Formfaktor etabliert wären Steckplätze an Monitoren mal ein Thema

Prinzipiell könnte man die Karte auch als Mobile-Alternative sehen, Zuhause in Kombination mit einer dedizierten Grafikkarte und im Office direkt an den Monitor angesteckt bzw. in einer kleinen Dockingstation

Womöglich zieht das Konzept aber auch einfach in die Richtung HPC und die einzelnen "Blades" werden dann über den Slot verbunden
 
Holt schrieb:
Wie viel Strom die ziehen, hat man über die BIOS Einstellung selbst in der Hand. Ab Werk werden die CPUs in der Default Einstellung meistens übertaktet, oft sogar ganz massiv. Dies scheinen viele Leute noch immer nicht zu wissen, offenbar denken immer noch zu viele die CPU würde selbst entscheiden wie viel Leistung sie aufnehmen oder die Default Einstellungen würden den Intel Vorgaben entsprechen.

Wo werden die CPU's übertaktet? Jede CPU läuft heut zu tage automatisch entsprechend der Konfiguration von Intel oder AMD. Das einzige was viele MB Hersteller mittlerweile machen ist den RAM ab Werk gerne etwas höher zu takten um in Benchmarks besser dazustehen. Vor einem Jahrzehnt benötigten die Speicherriegel meistens eine höhere Spannung als eigentlich angegeben um stabil zu laufen. Heut zu Tage geht es den RAM Herstellern eher darum weniger Spannung für mehr Takt hinzubekommen. Die MB Hersteller geben aber gerne etwas mehr Spannung um den takt des RAMs dezent zu erhöhen. Dies hat aber nicht wie damals zur Folge das auch die CPU automatisch übertaktet wird. Das eine CPU höher getaktet wird ist mir neu. Oft insbesondere bei Notebooks ist sogar das Gegenteil der Fall , sie sind langsamer getaktet um Strom zu sparen bzw. fast immer durch die maximale Stromaufnahme (TDP) gedeckelt damit der Akku länger läuft und man nach außen mit dickem Prozessor und langer Akkulaufzeit protzen kann.

Die CB Tests der letzten Intel Prozessoren haben aufgezeigt das Intel nur noch mehr Leistung durch mehr Takt generiert was eine Massiv höhere Stromaufnahme erzeugt und diese gegen AMD in Feld schickt nur damit sie in Spielen die Leistungs Krone Pro Kern behalten ohne Rücksicht darauf wie viel die CPU mittlerweile an Strom benötigt. Das geht soweit das man schon Probleme bekommt sie zu Kühlen und den Heatspreader wieder verlötet hat anstatt Geld zu sparen und ihn intern nur zu verkleben.
 
Holt schrieb:

Du bist witzig. Ich soll deinen Text lesen ohne das du meinen komplett liest wo ich die TDP erwähne? Und selbst CB das Thema abgehandelt hat inklusive eigenem TDP Bericht. Ja ne ist klar.
 
Gamefaq schrieb:
Wo werden die CPU's übertaktet? Jede CPU läuft heut zu tage automatisch entsprechend der Konfiguration von Intel oder AMD

Schwachsinn!!!

Die Vorgabe von Intel ist mehr oder weniger so....
Dabei soll die CPU zum Start mit dem maximalen Turbotakt von 4,3 GHz bei Last auf allen Kernen rechnen, bevor nach ungefähr acht Sekunden der Takt reduziert wird, um das bei dieser CPU offiziell auf 65 Watt TDP ausgelegte Kühlsystem nicht zu überfordern. Der Takt soll zu diesem Zeitpunkt allerdings nur leicht auf 4,1 bis 4,2 GHz fallen. Intel spricht in diesem Zusammenhang ganz bewusst vom „65W TDP limit“, das seine Wirkung zeigt, und nicht von einer Obergrenze in Höhe von 65 Watt Verbrauch.
https://www.computerbase.de/2017-12/intel-core-i7-8700-turbo-takt-oem-pc/

Daran halten sich aber die im freien Markt erhältlichen Mainboards nicht und setzen die PL2 Zeit auf unendlich. Dann hält sich die CPU auch nicht an die TDP und nimmt sich was sie kriegen kann.

Gamefaq schrieb:
Und selbst CB das Thema abgehandelt hat inklusive eigenem TDP Bericht.

Hast du den auch gelesen? Dort wird nämlich genau dies auch erklärt und die CPU mit 95W TDP nach Intels Spezifikation getestet.

1571736925525.png

https://www.computerbase.de/2018-10...3/#abschnitt_benchmarks_mit_95wattpowertarget
 
Zuletzt bearbeitet:
Das Problem an dieser Thematik ist nur das Intel sie nutzt wie es ihr passt. Offiziell geben sie eine TDP vor , in ihren eigenen Tests halten sie sich selbst jedoch nicht daran und testen mit PL2 unendlich. Die Dummen sind aktuell Webseiten/Zeitschriften die die Hardware Testen da es für sie mehr Arbeit bedeutet in zukünftigen Tests wenn sie die Unterschiede was min/max je nach Konfiguration (fertig PC der gedeckelte Werte hat vs. Selbstbau mit freien) möglich ist, mit in den Test Angeben wollen. Entweder Intel gibt es den Mobo Herstellern explizit vor oder sie halten sich bedeckt. Problem ist nur geben sie es vor werden die Ergebnisse der Testberichte aber auch Proportional zur Leistungsaufnahme Massiv einbrechen. Und genau das kann sich Intel vs. AMD aktuell nicht Leisten denn nur dadurch sind sie noch vorne...
 
Gamefaq schrieb:
Das Problem an dieser Thematik ist nur das Intel sie nutzt wie es ihr passt. Offiziell geben sie eine TDP vor , in ihren eigenen Tests halten sie sich selbst jedoch nicht daran und testen mit PL2 unendlich.

Ich kenne nicht allzu viele Tests von übertakteten Desktop-CPUs seitens Intel. Was aber nun mal zutrifft, ist das was auch Holt gesagt hat, der Nutzer hat es selbst in der Hand, wie viel die CPU verbraucht.

Wer "Multicore Enhancements" abschaltet und "PL2 Override" nicht konfiguriert, der verliert ein wenig Leistung dafür wird dessen CPU dann auch kein "Schluckspecht". Intel hat seinerseits nach den Skylake-X Tests, alle Mainboardhersteller abgemahnt "Multicore Enhancements" nicht mehr standardmäßig zu aktivieren.

Ende Mai hinterließ Skylake-X bei der Messung der Leistungsaufnahme ein sehr schlechtes Bild, was auf Kommunikationsfehler seitens des Herstellers und fehlerhafte BIOS-Einstellungen in den Mainboards zurückzuführen war. Denn die Mainboards mit ihren Standard-Profilen übertakten bekanntlich immer, da Intel jedoch kein Wort zu den genauen Taktraten unter den gewissen Lastszenarien lieferte, wurden Messungen ins Blaue durchgeführt – und waren folglich zum Teil falsch.
Monate später sieht es besser aus: Intel definierte klar die Taktraten, Mainboardhersteller zeigen genau das auch an, was anliegen soll und anliegt. Und so kommt am Ende auch ein Bild heraus, das passt: Skylake-X kommt unter voller AVX-Last im ComputerBase-Testsystem nie über die Marke von 260 Watt, da sich je nach Kern-Anzahl der Takt unterschiedlich stark absenkt. In Cinebench 1-CPU verbrauchen alle CPUS das gleiche, da auch der Turbo-Takt quasi identisch ist und das Ergebnis somit gleich ausfällt – Physik lässt sich nicht aushebeln.
https://www.computerbase.de/2018-10...3/#abschnitt_benchmarks_mit_95wattpowertarget
 
  • Gefällt mir
Reaktionen: Häschen
xexex schrieb:
Die ersten NUCs kamen 2012

Im September 2012 findet sich die Erwähnung in ct, dass Intel die ersten zwei Modelle auf dem IDF gezeigt hat. Also ja, da hatte ich im ersten Wurf nicht gründlich genug recherchiert.

da hatte zumindest ich Raspbi noch gar nicht auf dem Schirm...

Die wurden im Frühjahr 2012 ausgeliefert. Also eine Nasenlänge Vorsprung.
 
Zurück
Oben