News Cent-großer Mini-PC von Intel für das Internet of Things

@wazzup

Nein, nein und öhhh.. nein :)

Deine Wasch- und Spülmaschine regeln ihren Energiebedarf und Wasserbedarf indem sie Sensorik auswerten. Entsprechend wird dein Zeug nicht sauberer aber es wird mit geringerem Resourceneinsatz sauberer. Mit µC geht sowas ganz wunderbar.
Braucht es dazu zwingend eine Netzwerkanbindung, nein, bis hierher nicht. Jedoch sind Zusatzfunktionen denkbar. Beispielsweise, dass sich die Maschinen auf dem Smartphone melden, ohne dass sie durchs Haus und/oder die Wohnung piepen müssen. Genauso ist geplant Großgeräte in Zukunft so zu steuern, dass diese sich dann in Betrieb setzen, wenn notwendige Resourcen (Strom/Wasser) gerade gut verfügbar und damit billig sind. Andererseits kann man das Ding auch ohne Netzwerkfähigkeiten nutzen.

Das die Dinger nun x86 sprechen ist zumindest interessant. Im Zweifelsfall vereinfacht das die Toolchain erheblich. Zudem hat Intel bisher meist damit geglänzt, dass Dokumentation und Support recht gut sind. Das bekommen nicht alle Anbieter von µCs hin (zumindest wenn man die Dinger nicht in Massen abnimmt)


@Miuwa

Naja was ARM und X86 mal waren... Der Quark basiert auf dem 486er mit nur wenigen Erweiterungen. Dagegen sind doch einige ARM CPUs echte Monster im Vergleich. Da muss man sich wirklich keinen Kopf mehr drum machen, für was die Dinger mal ausgelegt waren. Die Realität hat da für einen ordentlichen Angleich gesorgt.
 
Die Frage bei dem kleinen Ding muss doch echt heißen:
Can it run Crysis?! :p
starkes Ding, doch hätte ich echt etwas mehr Leistung erwartet.
 
Piktogramm schrieb:
@Miuwa

Naja was ARM und X86 mal waren... Der Quark basiert auf dem 486er mit nur wenigen Erweiterungen. Dagegen sind doch einige ARM CPUs echte Monster im Vergleich. Da muss man sich wirklich keinen Kopf mehr drum machen, für was die Dinger mal ausgelegt waren. Die Realität hat da für einen ordentlichen Angleich gesorgt.

@Piktogram:
Irgendwie verstehe ich deine Aussage nicht: Wie du selbst sagst basiert der Quark ja gerade auf einem (fast) unverändertem CISC Befehlssatz für Desktop-PCs von 1989. Ein Cortex-M0 z.B. hingegen auf einem RISC Befehlssatz für microcontroller on 2003 (thumb-2).
Übrigens werden laut diesem Artikel die x86 Befehle beim Quark nicht - wie von mir zuerst angenommen - in Micro-Ops übersetzt, sondern direkt ausgeführt. Für mich klingt das nach zwei fundamental verschiedenen Architekturen.

Wie schon gesagt, es geht mir um den (vermuteten) strukturellen Nach- bzw. Vorteilteil durch die Instruction Set Architecture (ISA). Natürlich kann ein "schlechtes" Interface durch eine "gute" Implementierung ausgeglichen werden (und umgekehrt), aber man muss eben immer gegen die Defizite im Interface ankämpfen.
 
Hovac schrieb:
In jeden Schuh eingegossen und mit Spannung per Auftrittsdruck versorgt und schon kann man praktisch Jeden orten und überwachen, ist doch fein so ein kleiner Rechner. Gerade wenn nicht mit dem Auto gefahren wird und das Handy zuhause liegt bestehen da noch immense Lücken.
Bester und einzig wirklich interessanter Beitrag.
Genau so habe ich auch gedacht, als ich die News gelesen habe. Darüber will aber keiner so wirklich was meinen. Schließlich hat man ja Facebook, WhatApp, Android auf dem Phone, Computer und Fernseher, oder Apple. Google TV, Apple TV usw.
Die totale Überwachung eben. Die Stasi war dagegen ja fast schon ein geschützter Raum :).

Google könnte diesen Chip sicherlich gebrauchen. Google Phone, Google Watch, Google TV, Google Suchmaschine, Google Heizungsregler, Google Mail, Google Shop, Google Computer, Google Schuhe, Google Brille. Nicht umsonst macht Google nur Geld in Form von Informationen verkaufen.

Google nutzt nur die Bereiche, in denen sie dich und deine Informationen abgreifen können. Gut das Google eine amerikanische Firma ist und dem "patriot act" obliegt.

Das Erfordernis, Richter bei Telefon- oder Internetüberwachung als Kontrollinstanz einzusetzen, wurde weitgehend aufgehoben, dadurch werden die Abhörrechte des FBI deutlich erweitert. Der zuständige Richter muss zwar von einer Überwachung informiert werden, dieser ist jedoch verpflichtet, die entsprechende Abhöraktion zu genehmigen. Telefongesellschaften und Internetprovider müssen ihre Daten offenlegen.
http://de.wikipedia.org/wiki/USA_PATRIOT_Act

Viel Spaß noch
 
Zuletzt bearbeitet:
Volker schrieb:
Denn eine zweite Schmach wie bei Smartphones, dessen Markt der Chipriese völlig verschlafen hat, soll kein zweites Mal passieren

-Wieso wird diese Behauptung eigentlich immer wieder wiederholt, obwohl diese nicht stimmt...das ist wirklich Quark. Intel hat diesen Markt nicht verschlafen, Sie waren/sind immer noch nicht in der Lage günstige und vor allem passiv kühlbare CPU´s in x86 her zu stellen.
-Mittlerweile ist man in der Lage passiv kühlbare CPU´s her zu Stellen für Smartphones/Tablets, jedoch ist dieser Markt Ihnen mittlerweile davon gefahren. Und zu teuer ist die 14nm Herstellung sowieso (diese war wohl auch nötig für x86 um einigermassen Anschluss zu finden an die Konkurrenz.
-Aber da ist der nächste Hacken......ZU TEUER die Herstellung. -Darum werden doch in den letzen Quartalen MILLIARDEN Verluste gemacht (in der mobil Sparte!) -Damit es nicht zu peinlich wird, hat doch Intel diese Sparte doch mit der normalen "Verschmolzen", damit es schön "verdeckt" bleibt, und nur das "+" sichtbar nur ist.
 
Tobi4s schrieb:
Habe dir das ganze mal ausgerechnet:
Das Ding hier ist laut Artikel so groß wie eine Centmünze:
r = 8.125 mm
A = 207 mm²
Die Moto 360 hat folgende Abmessungen:
r = 23 mm
A = 1662 mm² (Wobei hier tendenziell noch ein paar mm² abgezogen werden, weil es sich beim Radius um den des Gehäuses handelt).

480mm2 war das PCB des Mediatek Smartwatches SoC. Stand gerade erst in einer News hier.

wazzup schrieb:
Ja, Steuern und Regeln schön und gut. Aber jetzt speziell zum Internet der Dinge? Wofür brauchen Wasch- und Spülmaschine oder mein Auto Internet? Die Anwort ist:
Zum intelligenten Wohnen!
Die Waschmaschine erkennt anhand dem Gewicht und deiner Eingabe was drin ist das perfekte Waschprogramm und wäscht nicht wenn du auf Start drückst (es sei denn du drückst den "Express wash now" Knopf) sondern erst dann wenn der Stromnetzbetreiber sagt "jetzt ist wenig Auslastung im Netz wir brauchen mehr Verbraucher".
Ist das nun wichtig ob die Waschmaschine um 2 uhr oder 5 uhr morgens läuft? Für die Netzauslastung wäre das ein gewaltiger Vorteil.
 
@Haldi: Ja es ist sehr ungünstig, wenn die Klamotten mehrere Stunden "fertig gewaschen" in der Maschine liegen. Die Knitter und Falten bekommst du so schnell nicht wieder raus! :D

Interessant sind die Dinger auch für Sportuhren. Da ist noch reichlich Luft nach oben, was die "Software und Hardware on Board" betrifft.
 
wazzup schrieb:
Und warum muss eine Waschmaschine x86 Programmcode ausführen können obwohl es ein 3/4 Jahrhundert ohne ging? Wird die Wäsche dann noch weisser? ...
Die Frage ist mehr als berechtigt.

Genau! Und wofür braucht man Strom, wenn es doch ein paar Jahrhunderte ohne ging? Oh Mann...
 
IncaCola schrieb:
Und kann er auch 4k-Videos abspielen? :D

Ne, mal im Ernst. Was kann man mit so einem Gerät alles machen? Günstige Handys für Entwicklungsländer vielleicht?

Mal im Ernst - wer nicht verstanden hat worum es beim Internet of Things geht, sollte einfach erst mal Google bemühen und dann vielleicht fest stellen, dass Smartphones usw. da eine Rolle spielen aber nur ein vergleichsweise kleine Rolle.

Wie so oft wird hier im Forum wieder Senf von Leuten zu Dingen abgegeben, die diese Art von Senf einfach nicht benötigen. Ich wünsche mir den Tag herbei an welchem es hier mal weniger unqualifiziertes Gemecker und mehr qualifizierte Kommentare gibt.
 
Zuletzt bearbeitet:
Klar hat das Teil einen Einsatzzweck ..
Es wird ungefragt in Tshirts ausgeliefert um dann der intelligenten Bluetooth-Touchscreen Waschmaschine mitzuteilen ob der Träger heute denn schön geschwitzt hat.
Infolgedessen wird die Waschmaschine dir nen AXE Webespot vorsingen.

Internet of Things, rly.
Zukünftig Kleidung erstmal 5 Sekunden in die Mikrowelle ...
Auch wegen den netten RFIDs die bei den Ammis schon gang und gebe in Kleidungen sind (IPv6).

mfg,
Max
 
Sorry für das Gemecker, aber ich sehe echt nicht so ganz den Sinn in dem Teil, zumindest nicht in der jetzigen Form. Klar kann man damit Kaffeemaschinen, Elektrische Zahnbürsten und co betreiben, aber es gibt auch heute schon so kleine Controller, mit denen es auch läuft. Nur weil es das jetzt in x86 Form gibt, werden die hersteller nicht blind zugreifen, ging bis jetzt ja auh so ganz gut.

Für Smartwatches etc.... nicht wirklich geeignet. Die Hardware ist viel zu langsam und in den kleinen Speicher passt ja nichtmal eine längere Nachricht. Außer kurze Nachrichten Anzeigen , die Uhrzeit anzeigen kann das Teil nicht allzuviel.... Wenn man das Unter Smartwatch versteht... dann waren die casio Baby-G's ja auch smartwatches.... x86 Prozessoren werden sich im Mobile Markt nicht mehr stark durchsetzen, wozu auch. ARM CPU's sind in diesem Bereich nicht wirklich schlechter, günstig und recht Effizient. Zudem sind alle Mobile betriebssysteme darauf abgestimmt. Den Massenmarkt wird man da nicht erobern können, wenn man die Chips nicht an die hersteller verschenken möchte.

Klar, diese Form von Computer wird genutzt, aber in meinen Augen hat Intel mal wieder den Marktverschlafen! Zur Steuerung gibt es genug Alternativen, dedizierte SoCs für Uhren und andere Smarte Kleinstgeräte werden momentan auch entwickelt (zum beispiel die neue Mediatec Kiste). Also, Was will Intel damit erreichen?
 
wazzup schrieb:
Tja... schön... und nun?
Wozu braucht man sowas? Ich meine wirklich brauchen, nicht nur zeigen das der Toaster mit dem Kühlschrank kommunizieren kann.

nach deiner Signatur müsste es von iNtel sein und schon wärst du zufrieden... iCurie oder sowas...

Sollte doch jedem klar sein, dass ähnliches bereits genutzt wird, der große Unterschied ist schlicht der Befehlssatz, der für eine leichtere Programmierung sorgt, die dann auch die Entwicklungskosten weiter senkt.
 
Gerade bei der einfacheren bzw. günstigeren Entwicklung wäre ich nicht so sicher. Seit Ewigkeiten werden KEINE x86 Prozessoren genutzt. Die Entwickler in diesem bereich haben sich so langsam spezialisiert. Jetzt einen anderen Befehlssatz zu bringen halte ich nicht unbedingt für schlau. Eine Firma müsste das gesamte Portfolio auf eine andere Architektur umstellen. Ein Risiko, was sicher nicht alle so einfach eingehen werden. Zwei verschiedene Architekturen parallel zu nutzen ist unsinnig. Doppelte Entwicklung!!! Es wäre also teurer. Intel wird viel Überzeugungsarbeit leisten müssen.


Aber ganz ehrlich... Intel ist ein Multi-Milliarden Dollar Unternehmen, sie werden sich sicherlich eine Sparte gesucht haben, die nach solchen Produkten verlangt, oder Analysten haben dies zumindest vorausgesagt. Aber klar, für Unterhaltungselektronik wie eine Smartewatch oder sowas ist das Teil ungeeignet und auch garnicht gedacht. Aktuell wird häufig ein Snapdragon 400 verwendet, der auf einen Kern beschnitten ist.... quasi eine extreme Bastellösung. Wenn der 20Nm Prozess für Qualcom und co. rentabel ist, werden sie auch eigene Smartwatch Prozessoren entwickeln.
 
Miuwa schrieb:
@Piktogram:
Irgendwie verstehe ich deine Aussage nicht: Wie du selbst sagst basiert der Quark ja gerade auf einem (fast) unverändertem CISC Befehlssatz [...]

Wie schon gesagt, es geht mir um den (vermuteten) strukturellen Nach- bzw. Vorteilteil durch die Instruction Set Architecture (ISA). Natürlich kann ein "schlechtes" Interface durch eine "gute" Implementierung ausgeglichen werden (und umgekehrt), aber man muss eben immer gegen die Defizite im Interface ankämpfen.

Ob es CISC oder RISC ist macht nur real sogut wie keinen Unterschied mehr. Die theoretischen Vorteile wiegen einfach weit weniger als div. Optimierungen die mit beiden Architekturen möglich sind und entsprechend zu einem Angleich der Effizienz führen. Wobei das in beide Richtungen klappt. Also sowohl in die Richtung einfachster CPUs auf Ebene von µC bis hin zu Monstern wie aktuelle Desktop/Server CPUs, wobei ich solche Dinger wie den Apple A8 bereits als Monster* sehe.
Auch ist der theoretische Vorteil oftmals etwas überbewertet. Denn ob nun RISC oder CISC genutzt wird um ein Ergebnis zu erhalten ist meist relativ unwichtig. Beide Wege führen zum Ziel und nur wenige Sonderfälle profitieren wirklich übermäßig von einem spezifischem Konzept. Für die meisten Anwendungen ist es aber vergleichsweise egal.


*Die Dinger sind partiell SEHR nah an aktuellen Desktop CPUs



@Shoryuken94

Der Aufwand ist recht klein. Wenn sich die Entwickler schlau anstellen haben sie viele Sachen die nah an der Hardware sind in Bibliotheken. Die kann man verlgeichsweise leicht tauschen. Wobei Intel wirklich hinterher ist einen solchen Umstieg sehr leicht zu machen. Zudem werden viele µC mittlerweile in Hochsprachen oder gar "Klickie Buntie"-Entwicklungsumgebung zusammen geklickt. Wenn also mal ein Umstieg auf andere µC nötig wird weil die Serie die man bisher nutzte eingestellt wird ist sowieso Umstellung nötig und die X86er µC wären da wohl nicht grundlegend raus sondern durchaus ne Betrachtung wert. Zumindest wenn Intel übliche Lieferzeiträume und Supportzeiträume einräumt und die Preise wettbewerbsgerecht sind.
 
Zuletzt bearbeitet:
Piktogramm

Puhh, ich hatte zwar RISC gesagt, aber nicht direkt an ARM Prozessoren gedacht. Eher an diverse Controller von TI, Infinieon usw. Du hast ja in SSD ect auch diverse spezielle Controller und keinen ARM oder X68 Architektur drinnen.

Und ja, Waschmaschinen oder allgemein Hausgeräte werden immer mehr können und man wird in Zukunft sowieso immer mehr mit Digitalen Schnickschnack Ködern. Da sind solche Chips dann sowieso an der Steckdose. Aber als reine Steuerelemente, benötigt man eben keine komplizierten x86 oder ARM Designs.

Aber ja vllt hat Krautmaser recht und das ist alles so Jahr 2000.

Im Gegensatz aber zu Java VM ect, kann ich aber über Assambler jedes Bit setzten und jedes Register direkt ansprechen. Klar kann das C zum Beispiel auch, dass macht dann der Interpreter und Compiler ect.
Aber auch dann muss sich jemand die Arbeit machen, Compiler und Interpreter, Linker ect optimal auf die Ressourcen zu opimieren. Und wenn man nicht 100 Euro mehr zahlen will, für eine Waschmaschine, oder sagen wir zum Beispiel Smartwatch, weil ein starker teurer Chip drinnen sitzt, der sich langweilt oder unnötig Ressourcen frisst, nicht schneller ist, aber teurer ist, dann gut.

Aber vllt sind wir heute sowieso durch die bessere Fertigung an einen Punkt, wo Programmierer "fauler" sein dürfen und dann eben bequem per Hochsprache programmieren können.


Wenn ich übrigens ein Nike Schuh habe und ich will nur Leds leuchten lassen, wäre so ein Chip einfach overpowered. Wenn ich vllt irwelche Features die mit einem App verbunden ist betreiben will, dann wird so ein x86 schon sein Sinn haben. Dann ist so ein Chip diversen Software-Entwickler einfach zugänglicher.
Es kommt eben drauf an, welche Anwendung und wie Flexibel es sein darf.
Nehmen wir an, der Chip soll ausgeben, wieviele Schritte man gemacht hat, wie man die Fußsohle belastet, ob die Füße zum Stinken anfangen ect.
Dann kann vllt diverser Entwickler, der den Schuh nicht mitentwickelt hat, vllt dann den Chip verwenden und eigene Apps programmieren.
So würde ich durchaus einen Sinn an komplexeren Chips sehen.

PS: Diskussion Intel X86 und ARM. Es hindert niemanden ARM, ein älteres ARM-Design ebenso dem Aufgaben anzupassen und dass dann an alle anderen zu lizenzieren.
http://www.arm.com/products/processors/cortex-m/cortex-m0.php
Vllt bräuchte man da nur den Cortex M0 weiterentwickeln.

Ich weiß nicht genau, was du alles als Hochsprache bezeichnest, aber für das Programmieren ist die verwendete ISA eigentlich ziemlich egal.
Naja darunter verstehe ich in erster Linie Objektorientierte Programmierung, im Gegensatz eben zu Assembler ect, also mit Binäre-Code, der Prozessor -Architektur abhängig ist.


Aber hey, ich freue mich dann schon, wenn ich für meine Turnschuh oder meine Waschmaschine einen Firmeware Updates brauche :D
 
Zuletzt bearbeitet:
Livxe schrieb:
Das Teil hat doch keinen Einsatzzweck oder? Einfach nur gucken was geht ohne wirklichen nutzen oder?
Hochleistungstaschenrechner mit Bluetooth. oder so... :D
 
Nr. 1 Entwurfsziel für so ein Gerät ist wenig Energieverbrauch. Leistung spielt hier keine Rolle.
 
@pipip

Naja die µC von Infineon & Co enthalten gern mal ARM Cortex M Kerne, genauso wie SSD controller gern auch mal ARM basiert sind:
http://www.jmicron.com/PDF/brief/jmf606.pdf

Gibt aber auch MIPS und Konsorten die RISC bieten. Nur ist ARM mir bisher am häufigsten untergekommen. Wirklich eigene CPU Designs hatte ich persönlich noch nicht in der Hand. Die mag es zwar geben aber selten sind sie.


Was Assembler angeht, klar kann man damit aus den kleinen 4, 8 und 16bit µC mehr raus holen. Jedoch ist die Kostendifferenz zu den 16bit und 32bit µC die man mit "KlickieBuntie"-Oberflächen programmiert (da muss man wirklich nur Blöcke zusammenklicken!) so gering, dass es oft nicht lohnt. So ein Assembler Zeug wird oft nur noch in Produkten genutzt die richtig harte Echtzeit brauchen, oder bei denen Massen an Produkten unter hohen Kostendruck fällig werden.

Anonsten: Also Firmwareupdates für Waschmaschinen, Trockner und Geschirrspüler gibt es schon länger. Bei Autos auch schon seit +10 Jahren üblich.

Blinkender Schuh: Also ne Blinkschaltung aus dieskreten, analogen Bauteilen vs. billigem µC den man ja wunderbar vergießen kann... Ich glaub da gewinnt kostenmäßig der µC. Schon allein weil sich damit "fancy" Blinkmuster erzeugen lassen.


ARM Cortex wird fröhlich entwickelt, es kam erst 2014 die M7 Serie auf den Markt!
https://en.wikipedia.org/wiki/ARM_Cortex-M#Cortex-M7
Insofern wildert Intel mit der Vorstellung wirklich ganz extrem in einem Markt, wo ARM schon "immer" sehr stark vertreten war. Wobei Intel erst das Galileo Modul auf den Markt gedrückt hat und jetzt dieses Winzding nachschiebt. Ich glaub Intel meint das ernst und ich traue denen zu da auch was zu reißen. Zumindest beim Galileo Modul sieht die Entwicklung so aus, als wollte Intel da mehr als nur vorsichtig fühlen. Der Support und das Engagement was da seitens Intel einem als Entwickler entgegengebracht wird scheint wirklich enorm (hörensagen durch Bekannt die näher an der Harware arbeiten)
 
Hovac schrieb:
In jeden Schuh eingegossen und mit Spannung per Auftrittsdruck versorgt und schon kann man praktisch Jeden orten und überwachen, ist doch fein so ein kleiner Rechner. Gerade wenn nicht mit dem Auto gefahren wird und das Handy zuhause liegt bestehen da noch immense Lücken.
das erscheint mir als ein erschreckend plausibles szenario. in dieser größe ist so etwas auch sehr günstig herstellbar und kann sogar vom nutzer unbemerkt in produkte eingebaut werden. sobald ist bluetooth sindern wifi ist gäbe es auch jede menge möglichkeit zur abfrage der nutzer, eine zuweisung wäre unbemerkt über das smartphone möglich welches sich am häufigsten in der nähe befindet.
 
pipip schrieb:
Piktogramm
Im Gegensatz aber zu Java VM ect, kann ich aber über Assambler jedes Bit setzten und jedes Register direkt ansprechen. Klar kann das C zum Beispiel auch, dass macht dann der Interpreter und Compiler ect.
Aber auch dann muss sich jemand die Arbeit machen, Compiler und Interpreter, Linker ect optimal auf die Ressourcen zu opimieren. Und wenn man nicht 100 Euro mehr zahlen will, für eine Waschmaschine, oder sagen wir zum Beispiel Smartwatch, weil ein starker teurer Chip drinnen sitzt, der sich langweilt oder unnötig Ressourcen frisst, nicht schneller ist, aber teurer ist, dann gut.

Schonmal in Assembler und C programmiert?
Tatsache is, dass sobald die Programme größer werden (fängt schon mit der USB Integration an) Assembler einfach unbrauchbar wird. Der Code ist schlecht wartbar, unübersichtlich und wahrscheinlich auch noch langsamer als das C-Pendat. Das liegt ganz einfach an den gut optimierenden Compilern heutzutage.

In C kann man und muss man übrigens auch jedes Bit eines Registers ansprechen können. Eh klar, wie sollte man auch sonst die Hardware ansprechen?

Auf den 100€ Vergleich darunter geh ich mal lieber gar nicht ein.
 
Zurück
Oben