News Neue AI-Suchfunktionen: OpenAI will ChatGPT zum Google-Konkurrenten aufrüsten

Cool Master schrieb:
Also findest du es gut, dass es Unternehmen gibt die Kriminelle, für Geld, schützen?
Also bin ich kriminell, weil ich alles über ProtonMail laufen lasse? Ich rufe dann mal gleich die Polizei und schildere denen meine Verbrechen :)
 
  • Gefällt mir
Reaktionen: Teropet, Bhaal3010, tomgit und eine weitere Person
Simonsworld schrieb:
Obwohl der Hype um ChatGPT groß ist/wahr, bietet Gemini inzischen ein mindestens ebenbürtiges Modell an. Der anfängliche Vorsprung ist zumindest bei den releasten Modellen nicht mehr wirklich zu erkennen.
Ich meinte auch eher dass etwas wie ChatGTP die herkömmliche Suchmaschine in vielen Bereichen ablösen wird - allem voran bei der Suche nach Information - das muss nicht zwingend von OpenAI kommen und kann sogar von Alphabet selbst sein (wie im Beitrag auch erwähnt).

Simonsworld schrieb:
Alphabet/Google gibt jährlich hohe zweistellige Milliardenbeträge aus, damit sie die Default Suche auf Smartphones sind.
Genau da würde ich an Stelle von OpenAI auch ansetzen. Andererseits sind auch div. Smartphone-Hersteller in irgendeiner Form eh bereits in AI-Modelle und deren Entwicklung involviert. Apple z.B. müsste nur mal die Nutzer dazu bekommen Siri intensiver zu nutzen (dafür müsste das natürlich auch besser funktionieren), die ganzen chinesischen Hersteller wollen sich eh immer weiter von Alphabet trennen, Samsung muss wohl auch nicht zwingend von Alphabet abhängig sein.

Ich denke halt dass die herkömmliche Suchmaschine langfristig obsolet wird und auch wenn Alphabet Milliarden ausgibt, dass sie die Nr1 bleiben müssen die eben langfristig auch ein konkurrenzfähiges KI-Modell auf die beine stellen um nicht von OpenAI, Gemini, oder jemand anderen abgelöst zu werden.
 
lorpel schrieb:
Mehr als mit Google Suche erfahre ich mit Copilot auch nicht. Letztendlich ist da gar nix intelligent. Das ist nichts weiter als eine statisch gesteuerte Nachplappermaschine.
Den Eindruck gewinne ich auch langsam. AI sieht bisher so aus als wäre es nicht viel mehr als Algorithmus v2. Für Hausaufgaben aber sicherlich ganz nützlich. Die größtenteils krass unkreative Midjourney Bilderflut auf Instagram etc. wird langsam wirklich nervig und das ganze von den Börsen vorgeschriebene DEI Gefingere im Hintergrund hinterlässt ebenfalls einen ziemlich schalen Nachgeschmack. Ich guck mir das ganze wieder an wenn ich zuhause eine unmanipulierte, selber trainierte AI laufen lassen kann. Die Chiphersteller machen sich ja schon warm.
 
futzi schrieb:
Ich guck mir das ganze wieder an wenn ich zuhause eine unmanipulierte, selber trainierte AI laufen lassen kann.
Kannst du :) InvokeAI z.B.
Es bleibt halt noch die Frage offen wie du an vernünftige Hardware kommst. So ein 19" Rack kann ja gut 7-stellig kosten :)
 
Google is geschichte! Bei mir, seit über 10 jahren! Karma holt ihm ein! Chinese sagt zu wenigstens bescheid, das du überwacht wirst! Bei der Google hingegen, müsste man das erstmals auf die Tage rausgraben, von willkürlichen Verkauf von Benutzern deren Daten garnicht zu reden! Ich binn perplext, das es heute immer noch keine Android alternative gibt.
 
Magellan schrieb:
In der Regel nutze ich zuerst Google und wenn ich dann feststelle das geht alles an meinem eigentlichen Problem vorbei dann schwenke ich auf ChatGPT um, wobei es Ausnahmen gibt in denen ich aufgrund meiner Erfahrungen und der sehr spezifischen Frage direkt die KI bemühe und dann eher im nachhinein Google zur Verifikation oder so nutze.

Der Sinn ist jedenfalls gegeben, und es ist abzusehen dass ab einem gewissen Punkt, also wenn die KI hinreichend gut ist, der erste Anlaufpunkt die KI sein wird.

Hast du da konkrete Beispiele?

Meine ursprüngliche Formulierung war für ein Fachforum mal wieder zu ungenau.

Es geht hier ja quasi um die "Verdrängung" des Platzhirsches, aber mit welchen Argumenten könnte OpenAI die "Durchschnittsnutzer" überzeugen? Und welche Vorteile bietet eine AI-Suche für die größte Nutzergruppe?

Wenn es einen Mehrwert gibt, dann wird Google den vermutlich auch erkannt haben, die Verbindung von Gemini und Googlesuche wird im Artikel explizit erwähnt.
 
futzi schrieb:
Die größtenteils krass unkreative Midjourney Bilderflut auf Instagram etc. wird langsam wirklich nervig
Man kann vieles aus unterschiedlichen Perspektiven betrachten.

In meiner Firma haben wir keine 100 Mitarbeiter Marketingabteilung, wenn man früher Bilder (für Website, Werbung, Print...) gebraucht hat dann waren das oft irgendwelche Fotos aus irgendwelchen Bibliotheken die halbwegs zum Thema passen oder jemand hat in aufwändiger Handarbeit etwas in Photoshop erstellt - heute liefert die Grundlage oft Midyourney, man hat für alles perfekt passende Bilder, kann seinen Ideen freien Lauf lassen, hat Motive die viel zu aufwändig wären sie von hand zu erstellen...

Beg1 schrieb:
Hast du da konkrete Beispiele?
Als erstes fallen mir da Programmierthemen ein, man hat einen individuellen, gegebenen Code, nutzt eine bestimmte Version und braucht eine Lösung welche darauf aufbauend etwas bestimmtes bewirkt - wenn du Glück hast hat jemand auf Stackoverflow etwas ähnliches gefragt und eine sinnvolle Antwort bekommen welche du adaptieren kannst, wenn du pech hast halt nicht - ChatGPT kommt da fast immer mit guten Ansätzen daher welche dann 1:1 auf meine Situation passen.

Aber auch sonst hatte ich schon öfter den Fall wo ich auf Google einfach nicht das gefunden habe was mir geholfen hätte, ich habe jetzt aus dem Stegreif aber nicht parat welche Fälle genau das waren.

Beg1 schrieb:
Es geht hier ja quasi um die "Verdrängung" des Platzhirsches, aber mit welchen Argumenten könnte OpenAI die "Durchschnittsnutzer" überzeugen? Und welche Vorteile bietet eine AI-Suche für die größte Nutzergruppe?
Das Killerfeature für die Masse ist imho schon wenn du ganz einfach deine Frage stellst, so wie du sie einem menschlichen Experten gegenüber auch stellen würdest und darauf direkt deine passende Antwort erhältst.
Ohne zu tüfteln welche Suchbegriffe zum Ziel führen, ohne Durchlesen von x Treffern, ohne zu bewerten welche davon jetzt wie hilfreich sind, ohne dich nach und nach in das Thema einzulesen um dem eigentlichen Punkt näher zu kommen...

Beg1 schrieb:
Wenn es einen Mehrwert gibt, dann wird Google den vermutlich auch erkannt haben, die Verbindung von Gemini und Googlesuche wird im Artikel explizit erwähnt.
Selbstverständlich - ich gehe davon aus, dass das für Google spätestens seit dem ChatGPT Durchbruch die absolute Prio #1 ist das voran zu bringen, denen ist klar, dass das der eine Punkt ist durch den sie ihre Vormacht im Bereich Suchmaschinen wirklich verlieren könnten.
 
  • Gefällt mir
Reaktionen: Teropet und Beg1
Cool Master schrieb:
In der Industrie ist KI aber dran neue Legierungen zu erstellen, bei div. Diagnosen zu helfen und viele weiter Punkte die du gar nicht mitbekommst weil es hinter verschlossenen Türen passiert.
Das sind aber grundverschiedene Arten von AI. LLMs, welche aktuell vor allem von dem Hype durch ChatGPT profitieren und die Welle vorantreiben, werden für 90% der Arbeitskräfte keinen Vorteil bieten.
Was du mit KI meinst ist halt manchmal ein ähnlicher Ansatz, aber ein anderes Resultat. Das geht eher in Richtung Statistik, gerade im Hinblick auf Legierungen, worin evaluiert wird, wann welche Vorteile welches Metalls/welcher Legierung zu Tragen kommt.

Die Skepsis gegenüber LLMs kann ich verstehen, man sollte aber definitiv den Begriff "KI" spezifizieren. Alles unter einem Deckmantel kann die Skepsis gegen andere Modelle und Ansätze steigern, auch wenn es sich um etabliertere Ansätze handelt.

Magellan schrieb:
AI hat heute bereits einen Vorteil wenn das Problem sehr spezifisch ist und man per Google eben nicht das findet was einen wirklich weiter bringt, manchmal auch wenn man mangels Vorkenntnis nicht die richtige Schlagworte kennt welche zur spezifischeren Lösung führen würden. Dazu kommt noch dass ich meine Antwort eben sofort und kompakt bekomme - ich muss mich nicht durch 10 Suchtreffer durchklicken und dort vielleicht noch seitenweise Text überfliegen um zu dem Punkt zu gelangen der mich wirklich interessiert.
Kann sein, ist aber oftmals auch daneben. Gerade wenn man sich mit Programmiersprachen befasst, die vielleicht jetzt nicht so weit verbreitet sind wie Python, Java oder C++ trifft man sehr oft auf unnütze Antworten. Ich hatte es mit komplexeren KQL-Abfragen versucht - kannst oftmals einfach vergessen, auch bei Modellen, welche aufs Programmieren spezifiziert sind.

Xiaolong schrieb:
Es bleibt halt noch die Frage offen wie du an vernünftige Hardware kommst. So ein 19" Rack kann ja gut 7-stellig kosten :)
Wenn Training nicht gewaltig im Fokus steht, kann man auch recht preiswert lokal LLMs laufen lassen, ML Studio und Konsorten regeln. Läuft auch auf einem M2 schon ausreichend gut.
ChatRTX läuft auf meiner 3080Ti sehr gut und kommt noch mit einem RAG gleich mit.
 
@tomgit: Ja nur anwenden geht. Habe auch InvokeAI bei mir laufen und das funktioniert super.
 
Magellan schrieb:
der Weg wo das mit fortschreitender Entwicklung hinführt ist klar.
Nein, ist es eben nicht. Weil je mehr Datensätze KI-generiert sind und im Internet verbreitet werden - womit die LLMs ja trainiert werden - desto mehr KI-generierte Inhalte werden zum Training verwendet. Das senkt zwangsläufig die Qualität der Modelle, weil es eben künstliche Datensätze sind und somit nicht anhand menschlicher Grammatik, Syntax und Semantik trainiert wird. Garbage in, Garbage out.
 
tomgit schrieb:
Weil je mehr Datensätze KI-generiert sind und im Internet verbreitet werden

Ich sehe da kein unlösbares Problem. Ein entscheidender Punkt in der Entwicklung von ChatGPT war, dass die KI die Qualität von Texten bewerten kann - das funktioniert im ersten Schritt durch menschliche Trainer welche Bewertungen abgeben und im zweiten Step dann durch eine Selbstbewertung der KI und darauf basierend einer stetigen Optimierung.
Ein solches Modell wird nicht jeden Text den es vorgeworfen bekommt gleich bewerten, die KI kann selbst entscheiden welche Texte von höherer oder schlechterer Qualität sind.
Dazu kommt dass die Anbieter bereits mit Hochdruck an Deals mit Rechteinhabern von Originaltexten arbeiten, da ist es dann auch möglich die KI gezielt mit menschengemachten Texten zu trainieren.
Dazu kommen weitere Feedbackschleifen wie die von internen Teams aber auch von Endnutzern welche die Ergebnisse bewerten können.
Im Netz steht auch jetzt bereits eine Unmenge an menschengemachtem Müll, das führt auch nicht dazu dass die KI auf RTL Vormittagsprogrammniveau antwortet.

Dazu kommt dass das ein Problem ist mitdem auch jede herkömmliche Suchmaschine kämpfen wird - wenn in den Suchergebnissen lauter KI generierter Müll auftaucht dann habe ich ja auch nichts gewonnen.
 
Magellan schrieb:
Ein entscheidender Punkt in der Entwicklung von ChatGPT war, dass die KI die Qualität von Texten bewerten kann
Seit ChatGPT hat sich aber die Qualität von KI-Modellen auch deutlich verbessert, was aber zeitgleich ein Problem wird. Wie viele brauchbare Transformer-Modelle gab es denn vor ChatGPT und wie viele waren davon öffentlich zugänglich? Seit dem Boom haben wir ja erst die zig unterschiedlichen Modelle, die entsprechend mal bessere mal schlechter mal effizienter sind als das, was GPT bietet.
Microsofts Phi 3 schlägt ja schon GPT 3.5 in deutlich kleineren Modellen, auch Metas Llama 2 und insbesondere Llama 3 sind zumindest ebenbürtig. Hinzu kommen ja noch weitere Modelle: Gemini, Mistral, etc. etc.
Entsprechend schwierig wird es auch für Annotatoren. Zumal hier noch weitere Probleme kommen, wenn Qualität steigt, wird es schwieriger für normale Mechanical Turks die Qualität zu bewerten. Entsprechend wird der Annotationsprozess teurer, weil es besser ausgebildete Annotatoren benötigt.

Magellan schrieb:
Ein solches Modell wird nicht jeden Text den es vorgeworfen bekommt gleich bewerten, die KI kann selbst entscheiden welche Texte von höherer oder schlechterer Qualität sind.
OpenAI hatte schon bei GPT 3 Probleme, die generierten Texte ordentlich identifizieren zu können, war entsprechend im wissenschaftlichen Diskurs ein gewaltiges Problem, weil man eben generierte Plagiate zuverlässig genug identifizieren kann.

Magellan schrieb:
Dazu kommt dass die Anbieter bereits mit Hochdruck an Deals mit Rechteinhabern von Originaltexten arbeiten, da ist es dann auch möglich die KI gezielt mit menschengemachten Texten zu trainieren.
Sofern die überhaupt noch in großen Stücken selbstgeschrieben sind...

Magellan schrieb:
Im Netz steht auch jetzt bereits eine Unmenge an menschengemachtem Müll, das führt auch nicht dazu dass die KI auf RTL Vormittagsprogrammniveau antwortet.
Führte aber dazu, dass die Chats sich regelmäßig zurücksetzen müssen und Sicherheitsmechanismen eingebaut wurden, dass keine Grütze produziert wird.

Magellan schrieb:
Dazu kommt dass das ein Problem ist mitdem auch jede herkömmliche Suchmaschine kämpfen wird - wenn in den Suchergebnissen lauter KI generierter Müll auftaucht dann habe ich ja auch nichts gewonnen.
Das ist jedoch etwas anderes. Bei LLMs ist das Problem, dass die Qualität der LLMs beeinträchtigt wird, wenn Trainings- und Validierungsdatensätze aus KI-Grütze bestehen. Dass Suchmaschinen dank AI-SEO ohnehin zu vergessen sind, ist mir längst bewusst.
 
nobody360 schrieb:
Ich wäre sofort bereit zu wechseln, nur um ein bisschen mehr Wettbewerb zu sehen! Google ist bekannt für seine Verstrickungen mit Kriegsorganisationen!

Erinnert sich wer noch? Google hatte in der Vergangenheit das Projekt Maven, bei dem Google mit dem US-Verteidigungsministerium zusammenarbeitete, um KI-Technologien für militärische Zwecke zu entwickeln.

dann habe ich schlechte nachrichten für dich.
 
  • Gefällt mir
Reaktionen: Bhaal3010 und nobody360
Ich erwarte mir davon tatsächlich relativ viel. Ich benutze jetzt schon relativ oft Perplexity (im Prinzip nen LLM + Google Wrapper) für Grobüberblicke über größere Themen (nimmt halt mehrere Ergebnisse und gibt einem nen guten Überblick).
OpenAI traue ich durchaus zu auch die Detailrecherchen mit LLM Unterstützung ein bisschen besser zu machen :)
 
Kuristina schrieb:
Irgendwie beschreibt das ganz gut das Problem. Es beruht ja alles auf Daten, die bisher da waren. Die ohne AI geschaffen wurden. Wenn es irgendwann künftig keine neuen mehr gibt, weil keiner mehr die Originalquellen nutzt und es sich damit nicht lohnt, diese noch zu erstellen, was dann?

Das ist durchaus eine interessante Frage. Das ist wohl auch einer der Gründe, warum es immer mehr Lehrstühle und Forschungsgruppen im Bereich "Ethics in AI & Data Science" gibt, die sich mit dem Thema befassen, wie der richtige Umgang mit Daten im Hinblick auf künstliche Intelligenz gelingen kann.

Die großen Unternehmen hinter den Large Language Models suchen händerringend nach guten Datenquellen. So ist unter anderem ChatGPT eine Kooperation mit der Bild Zeitung eingegangen.

Ich habe im Studium etwas Berührung mit dem Thema gehabt, wie man solche Modelle füttert. Besonders wenn man Modelle mit einem deutschen Sprachkorpus betreibt, ist die Auswahl geeigneter Trainingsdaten sehr gering. Da muss dann teilweise auf das manuelle Labeln von Daten zurückgegriffen werden, was sehr aufwendig ist.
Die Großen Player holen ordentlich Manpower aus Niedriglohnländer, aber auch hier sind die Kapazitäten begrenzt.

tomgit schrieb:
Wenn Training nicht gewaltig im Fokus steht, kann man auch recht preiswert lokal LLMs laufen lassen, ML Studio und Konsorten regeln. Läuft auch auf einem M2 schon ausreichend gut.
Ich habe schon ein paar Modelle probiert, bisher war aber nichts annähernd so gut wie die Online gehosteten Lösungen.
Und je nach größere der Parameter gehen meine 64GB RAM schnell zuende.
 
  • Gefällt mir
Reaktionen: Kuristina
Habe die letzten Wochen mit Smart Home verbracht. Hatte da null Ahnung von. Benutzt habe ich Home Assistant. Habe die Wärmepumpe über Modbus integriert, Ein paar Shellys und Tasmotas wurden eingebaut Victron Wechselrichter von der PV etc.
Sprich die ersten 2 Wochen hat mich das Modbus Thema komplett überfordert. Danach bin ich langsam reingekommen.
Habe dabei viel Copolit gerfragt bzw auch Google benutzt.
Also so ca. 90 % was ich Colpilot gefragt habe waren die Antworten nur müll bzw nicht nutzbar. Dann Frage ich, ich habe folgende Daten von der Anleitung, bitte sage mir wie ich diese Daten in Modbus intergriren muss bei Home Assistant. Copilot erstellt was, ausbropiert geht nicht. Copliot gesagt geht so nicht etc. Sorrry bei diesen spzeiellen Fall kann ich dir nicht helfen. So ist das ewig dahingegangen.
Also mich hat Chat GPT / Copilot total enttäuscht. Für was eine AI wenn die nix kann.
Was mit der Zeit auch auffällig war das auch viele Standartantworten kamen die sich oft wiederholt haben...
Über Goggle und Foreneinträge anderer User wurde ich viel schneller fündig.
 
lorpel schrieb:
Bin gespannt, wann die Blase platzt. Wie dot com.

[...] wurde animiert dargestellt, wo die Sternbilder, die wir von Erde aus sehen, tatsächlich in der Milchstraße sind. [...]

[...] Also bat ich Copilot so eine Ansicht zu erstellen. Der totalen FAIL. Kriegt der nicht hin. Der malt immer den gleichen Typ von nutzlosen Bildern.[...]
Das liegt aber nicht an der "AI" sondern an Deinen zu hochgeschraubten Erwartungen. Nur weil diese nicht erfüllt werden ist das nicht gleichbedeutend mit "nutzlos" oder "Blase platzt".

Was wir in Zukunft sehen werden ist eine Verringerung des Marketingbegriffs "AI" für alles und jedes, aber eine beständige Weiterentwicklung im Hintergrund. Du wirst in Zukunft entweder eine Suchmaschine mit natürlicher Sprache und Nachfragen nutzen können oder auf die altbewährte Weise mit Einzelbegriffen. Die Nutzer mit der natürlichen Sprache werden schnellere und bessere Ergebnisse erhalten als Du. Ist dann die eigene Entscheidung ob man sich umstellt.

Die Milliardeninvestments sind da, tragen auch Früchte und der Konkurrenzdruck hoch. Das dauert noch ein bißchen. Aber das kommt.
 
  • Gefällt mir
Reaktionen: rosenholz
tomgit schrieb:
OpenAI hatte schon bei GPT 3 Probleme, die generierten Texte ordentlich identifizieren zu können
Mir geht es ja gar nicht darum KI generierte Texte automatisch zu erkennen sondern einfach nur bessere von schlechteren Texten zu unterscheiden - wenn man das kann dann spielt es am Ende gar nicht die entscheidende Rolle welcher Text jetzt von einem Menschen und welcher von einer KI stammt.

Als Mensch filtert man seine Informationen ja auch, es gibt viel mehr Schrott als hochwertige Informationen, deswegen fängt man aber nicht an das alles in sich aufzusaugen und selbst auch immer mehr Schrott von sich zu geben.

Und ansonsten gibt es ja die weiteren Feedbackschleifen.
Wie gesagt ich sehe das nicht als unlösbares Problem das unweigerlich zur Regression führt.
 
  • Gefällt mir
Reaktionen: andy_m4
Zurück
Oben