Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsChatGPT-Konkurrent: Google Bard kann nun auch programmieren
Länger war es ruhig um Google Bard, den ChatGPT-Konkurrenten, der vor allem den Konkurrenzkampf mit Microsofts Bing-Integration aufnehmen soll. Infolge von Googles KI-Offensive in der letzten Woche erhält nun auch der generative KI-Chatbot ein Update, der Konzern verkündet den Start des Early-Access-Programms.
Finde die Entwicklung sehr bedenklich.
Die eine Lösung ist plötzlich nicht mehr offen, sondern kommerziell, bei der anderen wird mal das Ethik Team rausgeworfen.
Alle wollen sie was vom Kuchen haben Google sollte einfach Suchmaschine bleiben, ihre Smartphones weiterhin verkaufen, sich aber bitte aus Sachen halten, wo sie eh wieder das fünfte Rad am Auto sein werden.
Dasselbe habe ich auch schon über Stadia gesagt keine Chance damit!
Google sollte einfach Suchmaschine bleiben, ihre Smartphones weiterhin verkaufen, sich aber bitte aus Sachen halten, wo sie eh wieder das fünfte Rad am Auto sein werden.
Das hat nichts mit Google zu tun. Das macht jedes Unternehmen so. Tests in kleinem Rahmen und das meist auf Länder begrenzt, bevor es immer weiter ausgerollt wird.
Alle wollen sie was vom Kuchen haben Google sollte einfach Suchmaschine bleiben, ihre Smartphones weiterhin verkaufen, sich aber bitte aus Sachen halten, wo sie eh wieder das fünfte Rad am Auto sein werden.
Dasselbe habe ich auch schon über Stadia gesagt keine Chance damit!
Google / Alphabet hat so viele Daten zu verarbeiten... eigentlich beste Voraussetzung für eine KI, nicht?
Ausserdem sind die sehr software-basiert und Konkurrenz braucht es auch hier. Mal sehen wohin die Reise geht.
"Transformers were introduced in 2017 by a team at Google Brain[1] and are increasingly the model of choice for NLP problems,[3] replacing RNN models such as long short-term memory (LSTM). The additional training parallelization allows training on larger datasets. This led to the development of pretrained systems such as BERT (Bidirectional Encoder Representations from Transformers) and GPT (Generative Pre-trained Transformer), which were trained with large language datasets, such as the Wikipedia Corpus and Common Crawl, and can be fine-tuned for specific tasks.[4][5]"
So viel dazu, dass Google lieber bei seinen Kernkompetenzen bleiben sollte.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Gibt es da genauere Infos zu den Parametern? OpenAI war ja immer recht transparent, naja, bis vor kurzem. Zu GPT4 hüllen sie sich eher in Schweigen, die vermuteten 100 Billionen Parameter wurden vom CEO als "complete Bulshit" abgetan. GPT3 hat 175 Mrd.
Wobei mehr Parameter nicht automatisch bessere Ergebnisse bedeuten.
Aber Google (Alphabet) hätte natürlich schon den größten Datenkorpus.
Ich verstehe wie man bei dem eindeutigen Namen auf Die Simpsons kommt.
Ich bin gespannt ob Google diesmal wieder was großes auf die Beine stellt oder ob das ganze nach ein paar erfolglosen Jahren eingestellt wird bzw. vllt. sogar Open Source.