Habe schon mal beruflich einen Datensatz erstellt, der für ein Dashboard-Mockup verwendet wurde, um Kunden die Möglichkeiten von Business Intelligence, intelligenter Verknüpfung von Quellen und Visualisierung (mit PowerBI, Tableau, SAP BO etc.) zu demonstrieren. Wir hatten im Team erfahrene Data Analysts, die reale Daten aus Projekten gut kennen und hatten mit dem Know-How der Fälschungsqualität kein Problem. Das Ding musste aber in Demonstration willkürlichen Drilldowns Stand halten und vernünftige Infos ausspucken. Wer schon mal versucht hat, einen solchen komplexen Datensatz (und wenn man die Rulesets erst mal hat, ist es egal, ob 10k oder 100m Datensätze) zu erstellen, wird die Aufgabe ganz sicher ohne ChatGPT machen - und trotzdem an der schieren Komplexität der verschiedenen Informationsdimensionen verzweifeln. Wir haben am Ende eine Handvoll Datensätze sehr genau modelliert und haben die per Skript zielgenau in den Demos anvisiert. Sonst keine Chance, so etwas in der Dimension 50m Datensätze zu fälschen, ohne dass ein beliebiger Junior Analyst nach 5 Min den BS aufdecken kann.