Dasselbe Prinzip habt ihr doch auch bei Webseiten- und Content-Hostern, Google, YouTube, Facebook, und auch hier auf Computerbase, etc. pp.:
Solang sich keiner beschwert (bzw. es keinem auffällt), kümmert sich auch keiner um die Inhalte. Hier auf CB ist das natürlich noch relativ einfach und übersichtlich, aber bei globalen Plattformen wird's halt schwierig.
Wenn ich mir irgendwo eine Domain registriere und dazu einen Root Server miete, dann kann ich dort alle möglichen geschmacklosen und/oder illegalen Inhalte anbieten. Probleme kriege ich erst, wenn das jemand herausfindet, der mit diesen Inhalten ein Problem hat und es öffentlich macht.
Die Google Suche hat es da etwas einfacher: Text und Bilder lassen sich relativ einfach analysieren und automatisiert filtern lassen. Auf YouTube klappt das schon deutlich schlechter - dort kümmert man sich vor allem um's CopyRight. Hier und da werden dann garantiert auch Inhalte gefiltert, die vollkommen legal sind. Es sind halt am Ende immer noch stupide Algorithmen, die nicht denken und interpretieren können - aber das reicht aus, um fast alle ungewollten Inhalte zu filtern und gleichzeitig den Schaden an den legalen Inhalten extrem gering zu halten.
Aber bei Spielen wird's dann nahezu unmöglich sowas automatisiert durchzuführen. Programmcode lässt sich auf unendlich viele verschiedene Varianten schreiben. Darin lassen sich auch auf unendlich viele Arten Bilder, Videos und Texte einbetten. Eine Maschine kann (zumindest aktuell) nicht herausfinden, ob es sich bei dem Code um ein Spiel handelt oder nicht. Und genau so wenig kann eine Maschine herausfinden, ob das Charakter Modell mit dem Namen "der Gute" nun Gandhi, Hitler oder Ex-Kanzler Schröder ist. Und dann müsste so eine Maschine auch noch mit der Story und (schwarzem) Humor umgehen können. In 10-20 Jahren geht sowas vielleicht. Aber jetzt gerade kann sowas nur ein Mensch überprüfen und beurteilen.