#basTi schrieb:
Je divergenter mein Datenset ist desto besser.
Es fährt überall in der Welt mindestens ein Tesla herum. Kängurus auf der Straße? Tesla hat das schon lange gesehen. LKWs der LKWs transportiert? Teslas neuronales Netz kennt das schon.
Diese Menge an Divergenz hat kein anderer Hersteller.
Ich nehme an du meinst divers/Diversität?
#basTi schrieb:
Tesla hat aber Zugriff auf die Realität und muss nicht (nur) sich auf Simulation und wenige Testfahrzeuge/Daten stützen.
Auf die Realität hat jeder Zugriff, das gleiche passiert bei jeder Modellbildung, ob logisch oder statistisch (NN). Welchen Teil der Realität man abbildet, und wie sehr man Sonderfälle dabei modelliert hat ist aber ein grundsätzlich schwer zu lösendes Problem.
Es ist ein großer Unterschied ob man durch Wissen geleitet gezielt Informationen sucht, oder ob man statistisch alles mögliche abgrast, und dabei hofft genügend relevante/hilfreiche Informationen zu sammeln.
Menschen bzw. Wissenschaftler untersuchen, modellieren, und verstehen ein Problem. Danach suchen sie gezielt nach fehlender Informationen um gezielt das Modell wo es Lücken aufweist zu verbessern. Man sucht also quasi den Konflikt absichtlich, um ihn besser zu verstehen.
Sammelt man dagegen hauptsächlich Daten von durchschnittlichen Fahrten, bei denen alles mehr oder weniger glatt läuft, kommt man nicht weiter. Und um zu wissen welche Probleme besser trainiert werden müssen, muss man sie erstmal kennen. Die meisten Fahrer sind aber schon Profis, bzw. haben andere fehlende Konzepte als die KI/Maschine.
Das ist in etwas so wie wenn man nur einem Lehrer, der alles schon kann, dabei zusieht und hofft daraus zu lernen. Das Modell in seinem Kopf sieht man nicht, und die Fehler und Probleme aus denen er gezielt gelernt hat um dieses Modell aufzubauen auch nicht. Weiterhin mag das Modell des Lehrers unpassend für die eigene Denkart sein.
Man kann sich dem durch Versuch und Irrtum annähern, was viele "gute" Schüler tun, aber dann kläglich in unbekannten Situationen scheitern, weil das Modell nur die Oberfläche lernt, anstatt einer tieferen und abstrakteren Struktur die anpassungsfähig ist.
Ein Zeichen dass man das Problem nicht verstanden hat, ist wenn es "ganz einfach" ist.