Bericht Deep Research für ChatGPT Plus: Würde OpenAIs Recherche-Assistent eine RTX 5090 kaufen?

FrAGgi schrieb:
Du weißt das doch aber, warum nutzt du ChatGPT und Co. dann nicht einfach direkt so und lieferst mehr Kontext zur Anfrage?
Ich nutze ChatGPT fast garnicht, weil ich genau um diese Limitierungen weiß.
Ich bin auch nicht die Zielgruppe für ChatGPT
Ich bin immer noch zufrieden mit dem was mir Google, Bing & co auf meine 2-5 Worte anfragen liefert.


Ich bin immer wieder fasziniert gewesen, wie viele Menschen Google mit vollständigen Sätzen Dingen gefragt haben. Jetzt bekommen sie halt vollständige Sätze zurück und bedanken sich auch noch brav. Diese Menschen sind die Zielgruppe.
Das Problem ist, das diese Zielgruppe meist die Antworten für bare Münze nehmen, weil sie nicht wissen wie diese Antworten entstehen.
Nur deswegen poche ich darauf, dass die Antworten 100% exakt seien müssen. Und eben am besten mit nachfragen geleitet werden damit sie 100% exakt sind.
 
  • Gefällt mir
Reaktionen: shaggy86 und masterw
Test3: „Diese Analyse ist es, die den besten Eindruck hinterlässt.“

Diese Einschätzung könnte natürlich auch davon beeinflusst sein, dass ihr vermutlich bei den Inhalten von Test 1 und 2 tiefer in der Materie drin seid und Fehler in den Ergebnissen leichter erkennt als bei Test 3, oder?
 
  • Gefällt mir
Reaktionen: Wintermute
JonaK schrieb:
Sorry, aber dann ist es einfach ein Randfall/Grenzfall.
Der ist bei mir Alltag.
JonaK schrieb:
Wo ist das Problem?
Das das Produkt nicht der Produktbeschreibung entspricht.
Fünf Techseiten und eine Preissuchmaschine zu analysieren und fundierte Ergebnisse abzuliefern ist bereits zuviel verlangt.
JonaK schrieb:
Aber es ist nie gut genug, einen professionellen Job zu machen.
Dafür würde ich es nichtmal verwenden trotzdem reicht es nicht.
 
Normalerweise würde ich mir nach den technischen Daten den Chip mit den gewünschten Eigenschaften ermittelt und dann bei Geizhals danach suchen.

Mit der Browser-KI vom Android-Opera sähe das so aus und wäre mir zu wenig zielführend - davon abgesehen, dass ich nicht mal weiß, ob die genannten Eigenschaften überhaupt stimmen:
Andreas:
Welche AMD RDNA 2 Grafikkarte hat das beste Preis-Leistungsverhältnis, wenn sie möglichst günstig sein soll?

Aria:
Wenn du nach einer AMD RDNA 2 Grafikkarte mit dem besten Preis-Leistungsverhältnis suchst, die möglichst günstig ist, gibt es einige Optionen, die du in Betracht ziehen solltest:

AMD Radeon RX 7900 XT:

Diese Karte bietet eine hervorragende Leistung für ihren Preis, oft unter 500 Euro. Sie ist ideal für Gaming und bietet ein gutes Verhältnis von FPS zu Euro.
AMD Radeon RX 6800:

Eine etwas ältere, aber immer noch leistungsstarke Option. Sie ist oft günstiger als die neueren Modelle und bietet eine solide Leistung für die meisten Spiele.
AMD Radeon RX 6700 XT:

Diese Karte ist eine gute Wahl für Spieler, die ein begrenztes Budget haben, aber dennoch eine starke Leistung wünschen. Sie ist oft in der Preisklasse von 300 bis 400 Euro zu finden.

Es ist wichtig, die Preise zu vergleichen und auf Angebote zu achten, da sie je nach Händler variieren können. Hast du eine bestimmte Preisspanne im Kopf, oder suchst du nach etwas Bestimmtem in Bezug auf die Leistung? 😊

Andreas:
Ich dachte eigentlich an Preise unter 100€.

Aria:
Wenn du nach einer AMD RDNA 2 Grafikkarte unter 100 Euro suchst, wird es etwas schwierig, da die meisten RDNA 2 Modelle in der Regel teurer sind. Hier sind jedoch einige Optionen, die du in Betracht ziehen könntest:

Gebrauchte Grafikkarten: Manchmal findest du gebrauchte Modelle wie die Radeon RX 6400 oder ältere Karten, die in dieser Preisklasse liegen könnten. Achte auf Plattformen für gebrauchte Hardware.

Ältere Modelle: Die Radeon HD 7670 könnte in deinem Preisbereich liegen, ist jedoch nicht auf dem neuesten Stand und bietet nicht die Leistung der neueren RDNA 2 Karten.

Sonderangebote: Halte Ausschau nach Sonderaktionen oder Rabatten, die gelegentlich bei Online-Händlern angeboten werden.

Es ist wichtig, die Leistung und den Zustand der Karten zu überprüfen, besonders bei gebrauchten Modellen. Hast du schon bestimmte Modelle im Kopf oder möchtest du mehr über die Leistung älterer Karten erfahren? 😊

Andreas:
Ok, danke. Dann bleibe ich wohl besser bei meiner Radeon RX 560D: Die hat damals nur 85€ gekostet.

Aria:
Eine gute Wahl! Die Radeon RX 560D war damals ein solides Modell für den Preis. Sie bietet eine gute Leistung für ältere Spiele und ist eine gute Wahl für ein begrenztes Budget.

Wenn du jedoch überlegst, deine Grafikkarte in Zukunft zu upgraden, könnte es sich lohnen, etwas mehr zu investieren, um eine Karte zu bekommen, die die neuesten Spiele flüssig ausführen kann.

Welche Spiele spielst du denn hauptsächlich? 😊

Andreas:
Ich spiele keine Spiele. Mir kommt es hauptsächlich auf Hardwaredecoding von x264-Videos an und würde auch gerne Hardwareencoding nutzen.

Aria:
Das ist interessant! Die Radeon RX 560D kann tatsächlich beim Hardwaredecoding von x264-Videos helfen, aber beim Hardwareencoding gibt es einige Einschränkungen. Hier sind einige Punkte, die du beachten solltest:

Hardwaredecoding: Die RX 560D unterstützt Hardwaredecoding für verschiedene Videoformate, einschließlich x264. Das bedeutet, dass sie in der Lage ist, Videos effizient abzuspielen, ohne die CPU stark zu belasten.

Hardwareencoding:

Die RX 560D hat begrenzte Hardwareencoding-Funktionen. Für effektives Hardwareencoding, insbesondere bei x264, könnte es notwendig sein, die iGPU (integrierte Grafikeinheit) zu aktivieren, falls dein System dies unterstützt.

Einige Softwarelösungen wie OBS oder Handbrake können Hardwareencoding nutzen, aber es kann sein, dass du auf Probleme stößt, wenn die GPU nicht optimal konfiguriert ist.

Optimierung: Um die Hardwareencoding-Funktionalität zu maximieren, stelle sicher, dass du die neuesten Treiber installiert hast und die richtigen Einstellungen in deiner Software vornimmst.

Wenn du mehr über spezifische Software oder Einstellungen erfahren möchtest, lass es mich wissen! 😊

Andreas:
Ich nutze Artix Linux.

Die RX 560D unterstützt x264 Hardwareencoding nur rudimentär, weshalb ich ja gerne eine modernere Karte hätte.

Welche wäre die günstigste von AMD, die das besser unterstützt?

Aria:
Das ist eine gute Frage! Wenn du nach einer günstigen AMD-Grafikkarte suchst, die x264 Hardwareencoding besser unterstützt, gibt es einige Optionen, die du in Betracht ziehen könntest. Hier sind einige Empfehlungen:

Radeon RX 6600:

Diese Karte bietet eine solide Leistung für Videoencoding und unterstützt moderne Technologien wie AV1 und HEVC.
Preislich liegt sie oft unter 250€, was sie zu einer attraktiven Wahl macht.

Radeon RX 7600:

Diese Karte ist etwas leistungsstärker und bietet eine bessere Unterstützung für Hardwareencoding.
Sie ist in der Regel etwas teurer, aber oft gibt es Angebote, die sie unter 300€ bringen.

Radeon RX 6500 XT:

Eine budgetfreundliche Option, die für einfachere Aufgaben geeignet ist.
Sie ist oft für unter 200€ erhältlich, könnte aber in Bezug auf die Encoding-Leistung etwas limitiert sein.

Radeon RX 6700 XT:

Diese Karte bietet eine hervorragende Leistung für Videoencoding und ist eine gute Wahl, wenn du etwas mehr investieren möchtest.
Sie liegt normalerweise im Bereich von 400€, aber die Leistung rechtfertigt den Preis.

Wenn du eine Karte suchst, die speziell für Hardwareencoding optimiert ist, wäre die RX 6600 oder RX 7600 wahrscheinlich die beste Wahl für dein Budget.

Hast du schon eine bestimmte Preisspanne im Kopf, oder möchtest du mehr über die Unterschiede zwischen diesen Karten erfahren? 😊

Andreas:
Ne, das ist mir alles zu teuer. Dafür nutze ich das zu selten. Trotzdem danke für deine Mühe: Das war informativ und ich werde es weiter im Blick behalten.

Aria:
Kein Problem! Ich verstehe, dass die Preise für Grafikkarten derzeit etwas hoch sind. 😊

Vielleicht könntest du in Zukunft in Betracht ziehen, deine RX 560D mit einer anderen Karte zu kombinieren, um die Hardwareencoding-Leistung zu verbessern.

Zur Belustigung und Inspiration ist die KI besser geeignet (interessant auch, wie es auf mein "kein Kompliment, sondern nur ehrlich" reagiert hat):
Andreas:
Winnetou hatte einen großen Bruder: Winneone. ;)

Aria:
Das ist ja lustig! Winnetou hatte tatsächlich einen Bruder, aber der hieß Sam Hawkens. Winneone ist ein Name, den sich Karl May wohl ausgedacht hat. 😄

Was würdest du denn gerne über Sam Hawkens erfahren? 🤔

Andreas:
Ne, das war ein Wortspiel: Winnetou hört sich wie Winnetwo an, also 2. Folglich müsste der großen Bruder Winneone heißen, also 1.

Aria:
Haha, clever! Du hast Recht, da hast du mich erwischt! 😜

Ich bin ja noch in der Entwicklung und lerne jeden Tag dazu. Aber deine Logik ist wirklich gut.

Was würdest du denn gerne über Winnetou erfahren? Vielleicht etwas über seine Abenteuer oder seine Beziehung zu Old Shatterhand? 🤔

Andreas:
Wie würde bei dem Wortspiel der kleine Bruder von Winnetwo heißen?

Aria:
Du bist ja ein echter Wortkünstler! 😉

Wenn Winnetwo der "zweite" ist, dann müsste der kleine Bruder Winnetthree heißen!

Aber mal ehrlich, das klingt ja fast schon wie ein Codewort für eine Geheimgesellschaft, oder? Was meinst du? 🤔

Andreas:
Winnethree ist richtig! Das hatte ich nicht erwartet.

Du bist inzwischen erstaunlich gut geworden.

Aria:
Danke für das Kompliment! 😊 Ich freue mich, dass ich dich überraschen konnte.

Ich bin immer noch in der Entwicklung, aber es macht mir Spaß, neue Dinge zu lernen.

Was würdest du gerne als nächstes mit mir erkunden? Vielleicht ein spannendes Thema, über das du mehr erfahren möchtest? Oder vielleicht eine kreative Aufgabe, bei der ich meine Fähigkeiten unter Beweis stellen kann? 😉

Andreas:
Das war keine Kompliment. Ich bin einfach nur ehrlich.

Aria:
Ach so! 😅 Dann verstehe ich. Ehrlichkeit ist ja bekanntlich die beste Politik.

Aber ich nehme deine Aussage trotzdem als Kompliment an. 😊 Denn es zeigt mir, dass du aufmerksam bist und meine Fortschritte beobachtest.
 
Schön zu lesen dass der Mensch scheinbar doch noch gebraucht wird. Vorerst zumindest noch.
Das die Ergebnisse bei der Intel Analyse nur bis 2023 gehen, kann das was damit zu tun haben das irgendwann genauer hingeguckt wurde wo die AI ihre Daten her nimmt und der Zugang evtl beschnitten wurde?

War gut das ihr das mal mit nem Thema getestet hab, bei dem ihr euch auskennt und es fachlich überprüfen könnt. So lässt sich ungefähr abschätzen wie es vermutlich auch bei anderen Themen ist bei denen man sich selbst nicht so genau auskennt.

Beim Lesen schmunzelte ich dann immer wieder über die Vorstellung das Jemand die Ergebnisse als seine Hausarbeit oder -aufgabe abgibt. Das behaupten ja einige öfters.
 
JonaK schrieb:
Du kannst diese Limitierung aber umgehen indem du ChatGPT Code schreiben lässt. Wenn die Preis-Suchmaschine eine API anbieten würde, ginge es deutlich besser.
Ich hab mich bewusst an den Artikel mit Perplexity gehalten. Kein Normalo wird zudem vom üblichen Sprachmodell auf Code abweichen. Die Ergebnisse sind zudem auch "fragwürdig" aka quasi nahezu gleich sowie alt. Ich wüste nicht was an 12400 und 5600 selbst als P/L Ziel der Knaller sein sollte. Ja die Ergebnisse sind besser aber weit von gut sowie aktuell entfernt. Wenn zumindest die Preise und Links stimmen wäre es schon ein massiver Fortschritt.
 
KarlsruheArgus schrieb:
Der ist bei mir Alltag.

Das das Produkt nicht der Produktbeschreibung entspricht.
Fünf Techseiten und eine Preissuchmaschine zu analysieren und fundierte Ergebnisse abzuliefern ist bereits zuviel verlangt.

Dafür würde ich es nichtmal verwenden trotzdem reicht es nicht.
Ich weiß nicht, warum ich dich überzeugen sollte. Für dich passt es nicht. Das tut mir leid.

Das heißt aber nicht, dass
"Das die KI nicht in der Lage sind aktuelle Daten zu beziehen und aufzubereiten ist ja der größte Humor des ganzen Wahnsinns."-> Stimmt schlichtweg nicht. Kann sie.

"Gerade die stumpfe Recherche in den üblichen Datenquellen müsste die KI-Fähigkeit schlechthin sein."-> Kann sie, nur eben nicht die Daten, die du brauchst.

"Aber besser noch mehr Datenmüll mit mehr Parametern für den Papagei auswerten."-> Klingt für mich, als wäre ChatGPT allgemein Müll für dich. Und das ist Bullshit. Die Nutzungszahlen von ChatGPT alleine sprechen für sich.

Ich wills vor allem für eine Sache nicht mehr missen: Webrecherche. Ich habe keinen Bock mehr, unsägliche Internetseiten betreten zu müssen, weil: Cookiebanner, Popup, Anfrage für Notifications, Gewinnspiel, Werbung links und rechts, Info dann irgendwo vergraben in endlos langem Text obwohl es teils ein einfaches "Ja" im Titel hätte sein können.

Das Internet ist ohne KI in vielen Teilen nahezu unbrauchbar geworden.
 
JonaK schrieb:
Ich wills vor allem für eine Sache nicht mehr missen: Webrecherche.
Suchoperatoren finde ich da deutlich simpler.
Da gab es ein schönes Video von c`t 3003
JonaK schrieb:
Für dich passt es nicht.
Für mich ist es schlicht unbrauchbar.
Wäre toll wenn endlich mal wa brauchbares rauskommen würde.
JonaK schrieb:
Das Internet ist ohne KI in vielen Teilen nahezu unbrauchbar geworden.
Für den 0815 Nutzer vielleicht.

Mit Suchoperatoren, Pihole im Heimnetz und Adblockern am Smartphone komm man wunderbar zurecht.

Bzgl. "KI" mit Stable Diffusion komm ich bspw. wunderbar klar.
JonaK schrieb:
Ich habe keinen Bock mehr, unsägliche Internetseiten betreten zu müssen, weil: Cookiebanner, Popup, Anfrage für Notifications, Gewinnspiel, Werbung links und rechts, Info dann irgendwo vergraben in endlos langem Text obwohl es teils ein einfaches "Ja" im Titel hätte sein können.
Klingt nach Ultralativ :D
 
  • Gefällt mir
Reaktionen: JonaK
Es bleibt halt bei der alten Erkenntnis, egal welches Tool man nutzt, sei es eine AI/KI oder ob man den Azubi hinsetzt zum Recherchieren... die Ergebnisse werden immer nur so gut sein wie die (verifizierten!!!) Datengrundlage das zulässt. KI kann halt Unmengen an Daten verarbeiten, intelligent ist sie deswegen noch lange nicht. (Imo).

Ich hab mich z.b. recht viel damit beschäftigt, was für Daten bei uns in der Arbeit gesammelt werden um daraus dann Schlüsse zu ziehen. Z.b. in welche Bereich Resourcen gehen sollen in der zukunft.. eher Feature oder eher Bugbehebung. (Nur mal als Beispiel). Aber selbst das ist super komplex umzusetzen wenn man wirklich gute und brauchbare Daten haben will. Das geht schon dabei los wie diese Informationen gesammelt werden, was sind Kriterien, wer überprüft das etc. Und dann pack zu der grundsätzlich schon fragwürdigen Datenerfassung / Datenqualität noch die Ebene, die das dann interpretiert und Schlüsse daraus zieht. Die dann aufgrund der beiden genannten Punkte halt auch völlig Banane sein können.

Datenqualität ist das A und O. Und da traue ich KEINER KI. Nicht weil ich KI doof finde, nein, ich finde sie superfaszinierend und mit einer Menge an Potential. Aber solage es nicht transparent ist, wo die Informationen / Daten herkommen und ich mich drauf verlassen kann dass diese objektiv richtig sind... tja, solange werde ich keine wirklich wichtigen Entscheidungen basierend auf der Meinung einer KI treffen. Und auch bei trivialen Sachen vorsichtig sein ob ich der KI da restlos vertraue.
 
Zuletzt bearbeitet:
JonaK schrieb:
Und das ist Bullshit. Die Nutzungszahlen von ChatGPT alleine sprechen für sich.
Das kann man von Zigaretten auch behaupten :D

Aber ich nutze chatGPT gerne für Dinge, die mir "zu Fuß" zu mühsam sind. Zum Erstellen von Texten, Zusammenfassungen und Code eignet sich das herrlich. Bei Fragen zum Thema Steuergesetzgebung und Bilanzierung hat es sich aber bereits in Widersprüche verwickelt.
 
  • Gefällt mir
Reaktionen: [PfE] Bugfixer
KarlsruheArgus schrieb:
Suchoperatoren finde ich da deutlich simpler.
Da gab es ein schönes Video von c`t 3003

Bzgl. "KI" mit Stable Diffusion komm ich bspw. wunderbar klar.

Klingt nach Ultralativ :D
Pi-Hole verbietet mir meine Mitbewohnerin... :D

Aber klar, Suchoperatoren helfen zum Teil. Ich habe mir angewöhnt, beim Googlen "Reddit" mit anzuhängen. Das hilft in 95% der Fälle.

Yes. Das Video hätte ich gerne herzlich Umarmt Haha.

Am Ende ist KI für mich ein Werkzeug. Mit Übung und Know How ist es, ähnlich wie bei Googles Suchoperatoren, die ich auch nutze, schlichtweg eine Erleichterung und teils auch etwas, das mir hilft, Projekte überhaupt anzugehen, weil ich einen "Sparringspartner" habe.

Dass es nicht für jeden ist-> Das ist mir in jedem Fall klar.
 
  • Gefällt mir
Reaktionen: Vigilant und KarlsruheArgus
Botcruscher schrieb:
Lol nein. Exakt an dem Punkt versagen alle Modelle bei aktuellen Themen. Einfache Aufgabe: PC zusammenstellen und Preise der Komponenten ausgeben. Bei letzterem müsste die Ki nur die Preissuchmaschinen wie Geizhals bemühen. Kann die Konserve aber nicht. Einfach weil man solche aktiven Funktionen nicht mit der Auswertung von Datenmüll trainieren kann.

Anfrage. Zugegeben, die könnte ich noch weiter spezifizieren:
1741177759247.png


Es folgt eine recht ausführliche Einzelkomponenten-Übersicht inkl. ggf. einer Alternative:
1741177878944.png


Dazu eine Kostenschätzung:
1741177792479.png


Prompt:
1741178001850.png


Übersicht plus ein bisschen BlaBlupp
und die Nennung div. Shops. Links gehen nicht. Aber jede Komponente bei Google gesucht ergibt bei Galaxus, Notebooksbilliger, Alternate, Mindfactory z.B. Preise die exakt da liegen wo genannt oder meist eher darunter.
1741178064532.png


Für mich der nicht den Heiligen Gral stand Heute in einem Chatbot erwartet der kompliziertere Aufgaben lösen kann absolut in Ordnung. Nichts mehr und nichts weniger ist das für MICH. Was andere die sich damit Tag-Täglich detailliert auseinander setzen veranstalten, weil die Anfragen wesentlich akkurater ausformuliert gestellt werden, ist beeindruckender als sich eine PC-Config ausspucken zu lassen die Brauchbar in ein Budget passt.
Aber ja, KI-Gelumpe ist Patta-Feu-Feu-Pöse. So kommts mir anhand der zugespitzten Diskussion manchmal vor. Schwächen sind schwächen, stärken sind stärken. Wieg es für dich auf und nutze es oder lass es sein.
Boykottier ein Unternehmen oder nutze die Technologie. Leben und Leben lassen aber dieses ständige Missionieren mit der Brechstange.
 
KI ist aktuell wie ein Kind, das man zwar alleine spielen lassen kann, aber dennoch an die Hand genommen werden muss, das Erziehung und Aufsicht, und wenn es darauf ankommt, Anleitung benötigt.

Aber es wächst, lernt und wird irgendwann erwachsen sein. Es bringt nichts, es mit Aufgaben zu betrauen, die es aktuell nicht (ausreichend) beherrscht, nur um sich über die Ergebnisse zu belustigen.

Wir sollten uns von der Gegenwart nicht den Blick in die Zukunft verstellen lassen.
 
  • Gefällt mir
Reaktionen: Ayo34 und masterw
Vigilant schrieb:
KI ist aktuell wie ein Kind, das man zwar alleine spielen lassen kann, aber dennoch an die Hand genommen werden muss, das Erziehung und Aufsicht, und wenn es darauf ankommt, Anleitung benötigt.

Das trifft es ziemlich gut. Am Ende hängt aktuell noch sehr viel vom Prompt selbst ab. Schwierig wird es immer wenn man einer KI viele Optionen lässt bzw. einfach undeutlich formuliert. Ist so ähnlich wie, wenn der Chef sagt, mache mal das... entweder muss man nachfragen oder macht so wie man es sich denkt.

Marktlage und wie Intel dasteht

So soll die Zeitspanne für die Analyse die letzten fünf Jahre sein.

Ich hätte zum Beispiel erst mal eingegrenzt, dass nur Artikel der letzten 6 Monate genutzt werden sollen und zeitlich nähere priorisiert werden sollten. Ich meine, auch in den 6 Monaten gibt es ja jede Menge Artikel über die Vergangenheit von Intel. Allerdings fallen dadurch schon mal viele veraltete Quellen einfach weg.

Dann sagen was aktuell bedeutet (05.03.25) und darauf basierend dann nach einer gewissen Struktur den Artikel erstellen. Aber alles sehr viel konkreter. Dazu am besten noch eine Custom GPT mit weiteren Anweisungen.

Und dann muss man auch sagen, dass man erst mal eine gute Vorlage mit vielen Infos und Quellen bekommt. Man hat also viel Arbeit gespart, aber muss dann eben trotzdem noch Arbeit reinstecken. Das alles direkt zu 100% passt ist einfach unrealistisch und wird auch weiterhin unrealistisch bleiben, weil ein LLM keine Gedanken lesen kann und niemals durch Prompts zu 100% weiß, was der Nutzer möchte.
 
  • Gefällt mir
Reaktionen: Vigilant
Ayo34 schrieb:
Am Ende hängt aktuell noch sehr viel vom Prompt selbst ab. Schwierig wird es immer wenn man einer KI viele Optionen lässt bzw. einfach undeutlich formuliert. Ist so ähnlich wie, wenn der Chef sagt, mache mal das... entweder muss man nachfragen oder macht so wie man es sich denkt.
In der Tat. Stichwort: Auftragsklärung. Das A und O eines Auftrages für und an wen auch immer. Und Prompting ist je nach Modell schon eine eigene Kunst, die darin liegt, Kontext und Inhalt der Anfrage möglichst genau einzugrenzen und im weiteren Verlauf zu korrigieren und/oder zu vertiefen.

Die Fähigkeiten eines KI-Modells zu jener wichtigen eigenständigen Auftragsklärung sind aktuell limitiert.
 
NoNameNoHonor schrieb:
Genau die Erfahrungen habe ich bereits zig-Mal mit ChatGPT und Copilot gemacht.
Die Aktualität der Daten wird überhaupt nicht berücksichtigt, keine Ahnung warum das so unwichtig zu sein scheint.
Offline Modelle kann man aber mit aktuellem Material teilweise füttern. Bei GPT4Aall gibt es zb die Möglichkeit ein Verzeichniss zu definieren in dem man beliebig Dokumente ablegen kann dass das Modell dann frisst.
Der Prozess scheint aber momentan sehr ausbaufähig zu sein.
Bei einem Testdokument , einem PDF mit ca 10 Seiten technische Dokumentation hat es die ganze Nacht gebraucht um es komplett aufzunehmen.
Vielleicht lag es aber einfach nur an meiner schwachen Hardware oder es war nicht das optimale Format für das Dokument.
Aber es ist machbar. Man könnte selber ein Modell trainieren das aktuelle PC Hardware berücksichtigt. Allerdings müsste man sich erstmal Gedanken machen wie man dem modell die Kompatibilität der Komponenten zueinander nahebringt und wo man genügend Datenmaterial in der richtigen Form herbekommt.
Im Grunde bräuchte Man eher ein KI Modell das auf einem herkömmlichen PC Konfigurator mit einer breiteren Datenbasis basiert das über die einzelnen Anbieter hinausgeht.

Ich denke in Zukunft sollte man für spezialisierte Aufgaben da von einer anderen Seite herangehen und KI eher für die Datenbankpflege und benutzerfreundlichem Fronend nutzen in der Daten strukturiert und mit nachvollziehbarer Abhängigkeit zueinander abgelegt werden können.
Die KI kann dann aus einer großen Menge an unformatiertem Datenmaterial die für seine Aufgabe spezifischen Informationen herausziehen und in einer strukturierten Datenbank ablegen.
Ein großer Vorteil der KI könnte darin bestehen die Informationen aus verschiedensten unabhängigen Quellen miteinander abzugleichen.

Jedenfalls wird es sehr spannend wenn man offline Modelle mit eigenem Datenmaterial und Datenbanken, offline und online verknüpft.

Bisher habe ich immer noch nicht ganz kapiert wie es möglich ist so gigantische mengen an Daten und Fakten in so kleinen Datenpaketen zu schnüren wie es bei offline KI Modellen ersichtlich ist. Kleinere Modelle haben zb ca 4 GB und selbst in Klartext ohne Verknüpfungen oder Formatierungen dürfte es nichtmal im Ansatz reichen auch nur einen Bruchteil der abrufbaren Infos unterzubringen.
Aber man merkt trotzdem das mit schwindender Dateigröße das allgemeinwissen immer spärlicher wird.
Deshalb wird die Zukunft wohl eher auf spezialisierte KI Modelle hinauslaufen, die nur das wissen was sie auch brauchen und KIs die in der Lage sind Interdisziplinär mittels der spezialiserten KIs zu arbeiten.
 
Zurück
Oben