Ein paar Gedanken, vielleicht, oder hoffentlich , bin ich ja
alleine damit.
Gedanke 1:
Das kommt mir genau richtig. Ich benötige für mein aktuelles Projekt ganz spezielles Fachwissen aus einem Nischenbereich, dass noch in der Forschungsphase ist und wofür es noch keine leicht abrufbare Datenbasis dazu gibt.
Gedanke 2:....
Sobald dieser Agent flächendeckend verfügbar ist wird kein Student, und damit zukünftiger Forscher, mehr selbst nach Quellen suchen (Pubmed, researchgate usw) und sich völlig auf zugetragene, vorverdaute informationen verlassen. Hauptargument: weils eben jeder so macht und einfacher ist(siehe ChatGPT und Hausarbeiten).
Ich habe mir heute, (mich zu meiner Faulheit bekennend und rein zu Vergleichsgründen
) von o3-mini ein Abstract einer Studie erstellen lassen, das dermaßen sauber, korrekt, und überpoliert rüberkam, dass ich bereits spüre wie es mich für andere Fragen zu KI-generierten Antworten hinzieht. (Das Abstract war inhaltlich aber fehlerhaft).
Ich frage mich jedoch wann man keine Wahl mehr hat solche Agenten hierfür zu nutzen.
Dass man die Ergebnisse händisch nachprüfen sollte, was evtl. genau soviel Zeit in Anspruch nehmen könnte wie die Suche selbst, ist dann nur noch optional. Schliesslich hat man so das Ergebnis schon vor dem Rechenweg erhalten.
Sofern der Agent diese Ergebnisse nicht selbst stets an Realdaten ausrichtet, würde eine massiv beschleunigte Fehlerkumulierung entstehen, die nicht mehr rückwirkend korrigiert werden kann und auch nicht durch neue Forschungsarbeiten aufgefangen wird, da diese Fehler in die Forschung mit einfliessen.
Was die Interpretation und Differenzierung der Ergebnisse betrifft, muss diese aber zu allererst in unserem Verständnis stattfinden, da dies etwas völlig anderes ist als wenn ein Bot empfiehlt: Dieses Thema sollte differenziert betrachtet werden weil:...
(stell dir vor du möchtest den Unterschied von Birnen und Äpfeln am Geschmack erkennen und die KI sagt dir, der Geschmack wird durch die unterschiedliche chemische Zusammensetzung differenziert)
Gedanke 3:
Gesellschaftlich scheint es gar keine Zeit zu geben sich darauf einzustellen. Wer nicht mitziehen will, oder kann, wird gemäß den Gesetzen der Spieltheorie zurückgelassen.
Das war vorher nicht anders, es gab aber immer einen gewissen Zeitpuffer um langsamere oder ausgelastete Mitglieder der Gesellschaft/Wirtschaft/Forschung nachkommen zu lassen oder aufzufangen.
Jetzt aber nimmt das exponentielle Wachstum des KI-Potentials massiv fahrt auf und Unterschiede in finanziellen Ressourcen, Wissen und Macht werden dementsprechend größer.
Der davon abgehängte Anteil der Gesellschaft, fürchte ich, findet sich bald in einem sozialdarwinistischen Kolosseum wieder und wird leichte Beute für populistische Rattenfänger mit ihren Wunderflöten.
Diese haben dann auch keinerlei Scheu davor halluzinierte Information zu verwenden, solange dies deren Zwecken dient.
Ich befürchte wir schaufeln unserer Wissenschaft gerade das eigene Grab und überspringen die Vorteile einer zuverlässigen, kontrollierbaren KI komplett, oder? Mir ist das selbst schon zu schwarz, aber der Trend zeigt zu sehr in diese Richtung.
Und viel öfter als mir lieb ist muss ich an die Zeitgeschichte von Startrek TNG denken.
Verbot von genetisch modifizierten Menschen, Verbot von synthetischen Lebewesen
und davor immer mal ein Krieg.
ok...Zeit für Youtube Brainnumbing ;D