Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News„Special Keynote“ zur Computex: Nvidias CEO kommt den Kollegen von AMD und Intel zuvor
Und die Spatzen pfeifen bereits einen Refresh davon von den Dächern, mit HBM3E statt HBM3 und vermutlich auch XCD in N4 statt N5. Könnte durchaus auch ein Thema sein, um wieder ein bisschen Blackwell zu kontern.
Dämlich würde ich es nicht nennen. Wenn man eigens spezialisierte AI Modelle für gewisse Tätigkeiten Trainiert, dann können die ein grossen Faktor in der Industrie Spielen und Arbeiten erleichtern.
Ich sehe eher diese Öffentlichen Allrounder AI‘s kritisch.
naja, ich verstehe ihn @gartenriese schon.. gefühlt jedes jahr gibt es auch im "business" sektor einen begriff, der absolut totgeritten wird. habe früher (ab 2005) mehrere jahre auf der cebit gearbeitet, und damals gab es das schon. gefühlt ALLE hersteller werben plötzlich damit, ob sie es sinnvoll anbieten können, oder nicht. hauptsache, es steht auf dem schild.
beispiele wären da:
SIP
VPN
CLOUD
MESH
Blockchain
viel später dann
industrie 4.0 (da war gefühlt alles, was einen stecker hatte, plötzlich 4.0)
AI / KI (früher nannte man das "routinen", jetzt ist es plötzlich alles AI)
ich meine, wenn selbst jeder noch so kleine schaltkreis, der früher als cpu verkauft wurde, plötzlich KI-fähigkeiten hat..
das nervt schon ein bisschen, weil es die begriffe verwässert und kunden täuscht.
Industrie 4.0 wurde von vielen sehr missverstanden. Man darf es als Leitfaden und nicht als konkretes Konzept betrachten.
Das Ziel war maximale Kontrollmöglichkeiten zu leider auch maximalen Aufwand
... Dem Arbeiter entsteht durch Industrie 4.0 erst mal nur Mehrarbeit. Der Mehrwert ist 1-2 Etagen drüber nur ersichtlich und auch da sicher nicht jedem. Der Widerstand gegen einen solchen change ist naturgemäß enorm. Wenn ich jetzt aber die Arbeit selbst schlanker gestalte sieht auch Max Mustermann dass ein Einsatz sinnvoll sein kann.
Ich weiß ja nicht ob Ihr in eurem Betrieb Industrie 4.0 richtig verstanden habt.
Ziel ist die gesamte Betriebsinfrastruktur zu vernetzen und kommunizieren zu lassen damit man eben redundante Arbeiten nicht mehr Mitarbeitern übertragen muss und man sich Informationen jederzeit über das ERP System ziehen kann.
Richtig angewandt reduziert eine vernünftige Integration von Industrie 4.0 den Arbeitsaufwand und Fehlerwahrscheinlichkeit.
MI300 wird seit Anfang letzten Jahres ausgeliefert. Einige Prototypen des ElCapitan (All AMD Supercomputer für das Lawrence Livermore National Laboratory und Anwärter für Platz1 oder 2 in der Top500) waren bereits Juni 2023 in der Top200 Liste. Und AMD hatte zuletzt eine recht hohe Taktzahl im Bereich Compute Karten, zwischen MI100, MI250 und MI300 (also den verschiedenen Generationen) waren jeweils unter 2 Jahre, teilweise kaum über 1 Jahr. Insofern wäre ein MI350 (oder wie auch immer der Name lautet) durchaus denkbar. AMD braucht die kurzen Zyklen auch, um zu NVidia aufzuschließen.
Das haben sie inzwischen auch recht gut gemacht, vor Blackwell hatte AMD in allen Bereichen das klar schnellere Produkt. Entsprechend werden sie versuchen, möglichst bald mit der nächsten Generation wieder heran oder vorbei zu kommen, um sich Marktanteile bei AI Hardware zu sichern und entsprechend Gewinne abzuholen.
AMDs Keynote zur Computex 2024 wird am Montagmorgen (3. Juni 9:30 Uhr Ortszeit),
Intels Keynote zur Computex 2024 am Dienstagvormittag (4. Juni 11:00 Uhr Ortszeit)
Das ist ja echt irre.
Die machen den "Wettbewerb" wer als erstes Reden darf und jeder schiebt sich vor den jeweils anderen um möglichst breit mit Aussagen durch zu kommen und den Aktienkurs / Bedeutung zu unterstreichen.
Es sieht aus als ob Intel der einzige ist der nach den Regeln spielt und daher als "letztes" im Dreiergespann dran kommt xD
Stellt sich ja auch die Frage, ob es besser ist, zuerst zu reden oder zuletzt. Wer zuerst dran ist, bekommt natürlich die meiste Aufmerksamkeit am Anfang, aber wer zuletzt redet und alles kontern kann hat die nachhaltigere Aufmerksamkeit hinterher.
Wobei sich ja Intel zuletzt selbst ein Eigentor geschossen hatte mit den Stabilitätsproblemen unter Last, gerade bei UE5-Engine-basierten Games. Der derzeit kursierende Fix dafür kann im Extremfall richtig Performance kosten
Soweit so richtig. Ich bezweifle auch nicht die Sinnhaftigkeit des ganzen. Aber wenn man solch Projekte in der Fertigung zb ausrollt bedeutet es für alle Beteiligten zunächst mal Mehrarbeit. Vorher einfache Prozesse und Gewohnheiten müssen nun zwangsläufig nochmal digital abgebildet werden. Hast du sowas schon mal selbst betreut? Den Leuten am Band oder der Maschine sind die Vorteile schwer zu erklären, wirklich vom Konzept überzeugt sind da die wenigsten.
Und das ist der große Unterschied zu KI. Die vereinfacht im ersten Schritt die Arbeit für die Personen draußen. Da ist die Akzeptanz ungleich höher als sie bei Industrie 4.0 Themen jemals hätte sein können. Höchstens Zweifel am Datenschutz hört man hier und da. Aber das hat man bei Industrie 4.0 genauso.
Versteh mich nicht falsch. Ich finde sogar dass sich KI wunderbar in bereits vernetzte Systeme einbinden lassen wird und da unheimlich viel Potential schlummert. Ohne Vernetzung und der damit verbundenen Mehrarbeit funktioniert KI aber eben auch in vielen Bereichen.
Aber wenn man solch Projekte in der Fertigung zb ausrollt bedeutet es für alle Beteiligten zunächst mal Mehrarbeit. Vorher einfache Prozesse und Gewohnheiten müssen nun zwangsläufig nochmal digital abgebildet werden. Hast du sowas schon mal selbst betreut? Den Leuten am Band oder der Maschine sind die Vorteile schwer zu erklären, wirklich vom Konzept überzeugt sind da die wenigsten.
Keine Ahnung wie das bei euch gelaufen ist, aber bei uns musste bisher nichts "nochmal digital" abgebildet werden.
Vorher haben die Mitarbeiter handschriftliche Zettel ausgeführt, die dann später dem Schichtleiter übergeben wurden, der sie dann in ne Excelliste übertragen hat, auf die dann die Dispo etc zugreifen konnte.
Jetzt gehen 80% der Infos, die die Mitarbeiter aufgeschrieben haben direkt von den Maschinen übers Netzwerk ins ERP System, wo die Dispo direkt Zugriff auf alles hat und die restlichen 20% werden an einem PC der an jeder Produktionslinie steht eingetippt und landen so auch direkt im ERP.
Also die Mitarbeiter müssen 80% weniger selbst protokollieren und die 20% die sie noch protokollieren müssen, gehen schneller.
Jetzt gehen 80% der Infos, die die Mitarbeiter aufgeschrieben haben direkt von den Maschinen übers Netzwerk ins ERP System, wo die Dispo direkt Zugriff auf alles hat und die restlichen 20% werden an einem PC der an jeder Produktionslinie steht eingetippt und landen so auch direkt im ERP.
Also die Mitarbeiter müssen 80% weniger selbst protokollieren und die 20% die sie noch protokollieren müssen, gehen schneller.
Klar, reine digitalisierung wird meist gut akzeptiert. Aber wenn die Rollwägen mit Material jetzt einen qr Code haben den man bei Erhalt erst mal scannen muss (damit Materialfluss 1:1 abgebildet werden kann) nervt das den Mitarbeiter. Das dies dann wiederum entscheidend für hallenplanung und prozessoptimierung ist, sieht der nicht.
Wäre schade drum. Die für das inferencing benötige Hardware wird dank DLSS ja weiterhin gebraucht, was für eine Verschwendung das ganze nur für sowas zu verwenden.
Es wird ja schon etwas länger spekuliert wie sehr durch den "AI-Markt" zukünftige Nvidia-GPUs überhaupt noch in erster Linie für Spiele entwickelt werden, wobei das natürlich noch reine Spekulation ist.^^
Und Blackwell wird ja wenn ich das richtig verstanden habe "nur" mehr oder weniger dafür da sein AI schneller und gleichzeitig deutlich energie-effizienter zu trainieren.^^
🤦♂️
Irgendwie schwer vorstellbar, das alle im Artikel genannten Kollegen von "DLSS" (oder upscaling) reden, wenn sie über "breakthrough AI capabilities from the cloud to the edge, PCs, and intelligent end devices" sprechen.