Was ich mir gut vorstellen könnte ist, da ja solches Kontomanagement/Suchen nach illegalen Inhalten per AI/Automatismus geregelt wird bei solchen großen Firmen, dass gerade deswegen da eben nicht mal so schnell ein Patch geliefert werden kann.
Diese AI die da verwendet wird zum überwachen hat ja irgendwann mal eine Training durchlaufen wo in der Regel der Entwickler durch den Entwicklungsweg den die AI in dem Trainingsmodell nimmt und dann zum fertigen Modell kommt gar nicht mehr nachvollziehen kann.
Das fantastische an dem AI zeug ist ja, das man die beim Training mit Daten voll wirft und machen lässt bis es zum gewünschten Ergebnis kommt, die ganzen Tausenden ,millionen oder Mehr Schritte die dabei genommen werden können gar nicht mehr im einzelnen nachvollzogen werden, laufen aber vollkommen selbstständig ab und haben bis auf Energiekosten/beobachten und laufen lassen keine besonderen Aufwand mehr.
Der Nachteil ist dabei natürlich, das es keine Patches geben kann
wie sollte man sowas auch patchen? Außer natürlich mit nachgeschaltetem manuellem eingreifen/Zusatzfiltern oder komplett neuer Entwicklung/Training mit neuem Material
Mag sein, das ich komplett auf dem Holzweg bin, ich gehe jedenfalls davon aus, das die AI verwenden zum Managen.