News Apple-Managerin Vorrath: Problemlöserin soll Apple Intelligence & Siri auf Spur bringen

nobody360 schrieb:
… freie Wahl, welche KI ich systemweit nutzen möchte.
Nicht bei Apple.

Wenn IBM, die Linux Foundation oder die Mozilla Foundation das machen - vielleicht mit Linux.


Microsoft wird die Leute wieder “Zwangsbeglücken”. Aber wer deren Zeug einsetzt mag Schmerzen.
 
flaphoschi schrieb:
Mein Tipp für Menschen
  • Lesen und verstehen ganzer Fachbücher
  • Erfahrung und Handarbeit
Kann man so sehen. Dann wird man halt gnadenlos von allen abgehängt, die eben was mit Hilfe von ChatGPT programmieren, zusammenfassen lassen oder sich kurz informieren.
Wenn du da Hans Franz erklärst: ja lies erst mal ein Buch wie man c programmiert und lern das ein halbes Jahr um dieses Probelm zu lösen. Das ist maximal ineffizient. Kaum jemand hat Zeit sich in ein Thema jahrelang einzuarbeiten und Unmengen an Büchern zu wälzen.
ich promoviere an einem Institut für Lasertechnik und was wir inzwischen innerhalb von ein paar Tagen oder Wochen an Simulationen, Berechnungen und Auswertungen programmieren und schreiben, da gab es früher ganze Dissertationen dazu.
oder wenn es darum geht Quellcode von Scripten alter Doktoranden zu verstehen und zu verbessern: super Sache mit AI. Richtig eingesetzt ist das ein Werkzeug das man benutzen muss um nicht abgehängt zu werden.
Heute berechnet auch keiner mehr Wellengleichungen per Hand. Dafür gibt’s Computer. So ists auch mit KI.
Es ist da und wenn du’s nicht benutzt, gut, aber beschwer dich nicht wenn plötzlich alle anderen schneller und besser sind als du.


Edit:
Vielleicht denken da manche auch zu engstirnig und einseitig und verbinden mit AI nur LLMs und Chatbots.
Es gibt unzählige Anwendungsfälle wo das wirklich sinnvoll ist.
Ich habe letztens unsere Simulationsdaten der letzten Jahre zusammengesammelt und damit ein Neuronales Netz trainiert. Damit dauern jetzt unsere Optimierungen 6 Sekunden auf meinem Laptop anstatt 1-2 Wochen auf unserem Simulationscomputer. Mit Genauigkeiten die unterhalb der Produktionstoleranzen liegen, sprich man bekommt effektiv das selbe Ergebnis mit den aufwendigen Simulationen und aus dem kleinen neuronalen Netz. Klar wenn man ganz abwegige Ergebnisse oder Designs untersucht muss man darauf achten wie die Extrapolation außerhalb der Bereiche funktioniert für die Trainingsdaten vorlagen, aber da muss man halt drauf achten zu verstehen was man tut.
Aber das werden nicht nur wir so machen. Jeder der das so nicht umsetzt wird einfach abgehängt weil alles viel zu lang dauert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kim88, DonChiChi, C3LLoX und 3 andere
Wissenschaftlich denken/arbeiten, selbständig lernen, und immer die eigene mentale Gesundheit im Blick haben.

Insbesondere der letzte Punkt ist mein Tipp für Menschen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 01101101
Soweit ich weiss verkaufte und entwickelte Apple bisher keine Waffensysteme. Mit dem vision os Dingens wollten die endlich auch mal das Militär abzocken. Nun da das Projekt gefloppt ist, wechselt die Chefin von der Abteilung da rüber für einen neuen Versucht. So und jetzt mal eins und eins zusammenzählen was die da mit AI vorhaben... und warum von der Frau seit +30 Jahren wohl nur ein einziges Foto existiert.
 
  • Gefällt mir
Reaktionen: GameOC
ueg schrieb:
ich promoviere an einem Institut für Lasertechnik und was wir inzwischen innerhalb von ein paar Tagen oder Wochen an Simulationen, Berechnungen und Auswertungen programmieren und schreiben, da gab es früher ganze Dissertationen dazu.
Abgesehen von der Geschwindigkeit - wichtig ist auch: Habt ihr jetzt mehr oder weniger Sicherheit was die Korrektheit der Software angeht? Gerade bei Simulationen/Berechnungen können subtile Bugs zu falschen, aber doch plausibel aussehenden Ergebnissen führen, nicht? Wie hoch sind die "Stakes"? Kann etwas kaputt gehen wenn sich nach einiger Zeit herausstellt dass die Simulation quatsch war?
 
Tja diese ganze KI/ AI Geschichte hat einen immensen Haken. Alle generierten Daten, Aktionen, Ideen fliessen in die USA ab. Also bitte nicht wundern, dass in Europa zum Thema AI/KI tote Hose herrscht. Ihr füttert jeden Tag Konkurrenten eurer eigenen Heimat. Einziger Schutz dagegen Modelle lokal nutzen und vor allem Daten lokal halten.
 
  • Gefällt mir
Reaktionen: 01101101, viva la visi und kicos018
Firefly2023 schrieb:
„Vorrath ist bereits seit dem letzten Jahrhundert bei Apple…“

Was ne Formulierung🙄.
Und vollkommen korrekt!
Es unterstreicht nur die Bindung zum Unternehmen und z.b. Steve Jobs.
 
Whitehorse1979 schrieb:
Tja diese ganze KI/ AI Geschichte hat einen immensen Haken. Alle generierten Daten, Aktionen, Ideen fliessen in die USA ab. Also bitte nicht wundern, dass in Europa zum Thema AI/KI tote Hose herrscht. Ihr füttert jeden Tag Konkurrenten eurer eigenen Heimat. Einziger Schutz dagegen Modelle lokal nutzen und vor allem Daten lokal halten.
Zwar nicht auf KI bezogen, aber diese Website fand ich bzgl. dem Thema für europ. Alternativen großer Anbieter/Programme ganz hilfreich:
https://european-alternatives.eu/alternatives-to
 
FR3DI schrieb:
@DennisK.
Da ist dir der Vorrat an "h" ausgegangen. Bitte einmal neu Ordern, danke.

Gruß Fred.

Hallo Fred, vielen Dank für den Hinweis. Mein Vorrat an "h" ist nun wieder aufgefüllt.

Grüße
Dennis
 
  • Gefällt mir
Reaktionen: FR3DI
<jhk> schrieb:
Habt ihr jetzt mehr oder weniger Sicherheit was die Korrektheit der Software angeht?
Die Sicherheit ist gleich. Während der Optimierung werden hunderte oder tausende Simulationen durch die Ausgabe des Neuronalen Netzes ersetzt. Das finale Ergebnis wird natürlich trotzdem noch mal nach simuliert. Das dauert dann halt die normale Zeit der Simulation, aber alle Schritte vorher gingen viel schneller.
Zudem habe ich mir die Daten
<jhk> schrieb:
Wie hoch sind die "Stakes"? Kann etwas kaputt gehen wenn sich nach einiger Zeit herausstellt dass die Simulation quatsch war?
Klar kann was kaputt gehen. Aber wie gesagt da simulieren wir das Endergebnis noch mal nach und wir haben auch Erfahrung zu beurteilen ob was Sinn macht oder nicht.
Auch wenn die Simulation stimmt kann allerdings im Labor immer noch was kaputt gehen. Das passiert in der Forschung beim Ausloten der Grenzen und Machbarkeitsstudien ständig. Das ist nicht wie in der Industrie wo jegliche Fehlfunktionen vermieden werden müssen, damit der Kunde keine Probleme bekommt. :)
 
ueg schrieb:
Kann man so sehen. Dann wird man halt gnadenlos von allen abgehängt, die eben was mit Hilfe von ChatGPT programmieren, zusammenfassen lassen oder sich kurz informieren.
Wenn du da Hans Franz erklärst: ja lies erst mal ein Buch wie man c programmiert und lern das ein halbes Jahr um dieses Probelm zu lösen. Das ist maximal ineffizient. Kaum jemand hat Zeit sich in ein Thema jahrelang einzuarbeiten und Unmengen an Büchern zu wälzen.
ich promoviere an einem Institut für Lasertechnik und was wir inzwischen innerhalb von ein paar Tagen oder Wochen an Simulationen, Berechnungen und Auswertungen programmieren und schreiben, da gab es früher ganze Dissertationen dazu.
oder wenn es darum geht Quellcode von Scripten alter Doktoranden zu verstehen und zu verbessern: super Sache mit AI. Richtig eingesetzt ist das ein Werkzeug das man benutzen muss um nicht abgehängt zu werden.
Heute berechnet auch keiner mehr Wellengleichungen per Hand. Dafür gibt’s Computer. So ists auch mit KI.
Es ist da und wenn du’s nicht benutzt, gut, aber beschwer dich nicht wenn plötzlich alle anderen schneller und besser sind als du.

Und wenn "Hans Franz" das Buch mit den Grundlagen nicht durchgearbeitet hat, macht man Fehler und versteht die Fehler nicht. Hat man die Grundlagen jedoch verstanden, kann man auch mit einem schnellen HowTo und seinem Fachwissen eine KI zur Unterstützung verwenden.

Und Ihre Beschreibung legt mir nahe, dass da ein Fachwissen vorhanden ist. Und dann wird aus Magie ein Wissen, dass man kontrollieren kann.

Es gibt, wie immer, eine wunderbare Folge aus Star Trek TNG zum Thema:
https://de.wikipedia.org/wiki/Die_Sorge_der_Aldeaner

Wunderbare Analogie, so wird aus "Magie" ein "Ich verstehe es".

PS: C ist ein wunderbares Beispiel. Vom Umfang als Grundlage zum lernen nicht so gross, erzeugt eine Menge Verständnis und Fachwissen. Und die Zusammenhänge in der Computerei. Mit dem Hintergrund, hat man ein Verständnis was in C++ Rust oder Java geht (und nicht geht). K&R haben aber auch ein gutes Buch geschrieben, Fokus auf das Thema und kein Brockhaus mit unnützem Wissen.
 
KI wird kangfristig gesehen die Benutzung vom Smartphone revolutionieren bzw. als Schnittstelle dafür fungieren. Wenn Apple dort abgehängt wird, werden sie richtig Probleme kriegen.
 
Firefly2023 schrieb:
Ja, da man hiermit untertreibt, die ist schließlich auch seit dem letzten Jahrtausend im Unternehmen!

KI zu haben/implentieren nur um des Willens "Ich hab KI, gugg mal, ganz super doll!11elf" ist dumm. Gut und sinnvoll eingesetzt natürlich eine deutliche Effizienz- und Effektivitätssteigerung als potenzielle Auswirkung. Muss natürlich auch anwenderfreundlich sein (natürlich darf und muss dieser auch dahingehend Wissen aufbauen, um es besser nutzen zu können).

MfG, R++
 
flaphoschi schrieb:
Es wird schlauer, wenn es frägt.
Also eine KI hätte dir das jetzt aber korrigiert in die richtige Form "es fragt".

Da hätte das Kind dann schon mal etwas Grammatik gelernt. Schlaue Sache das.
 
  • Gefällt mir
Reaktionen: chaopanda und Kuristina
###Zaunpfahl### schrieb:
Was ist an einer autovervollständigung in vscode, excel, word, messenger, ....

Und die gab/gibt es erst seit KI? Seltsam, dachte, ich hab das schon all die Jahre zuvor benutzt... Da hieß es halt nur nicht KI.

Aber was hat das jetzt gleich nochmal mit Apple "Intelligence" und Siri zu tun?
 
Zurück
Oben