News Mehr Umsatz erwartet: OpenAI plant Preiserhöhungen für ChatGPT Plus

Für den Privatgebrauch wäre ich noch bereit, ein paar Euronen mehr zu bezahlen. Über 40€ bin ich dann aber nicht mehr bereit zu bezahlen. Da wechsle ich dann lieber zur Konkurrenz oder investiere ~1000€ in eine Radeon 7900XTX oder vergleichbares mit 24GB+ Vram und lasse da gleich eine lokale LLM laufen.
Bei 44€ im Monat (528€/Jahr) hat man die schnell wieder raus.
Ayo34 schrieb:
Naja, wenn man sich an ein Produkt gewöhnt hat, dann wechseln viele nicht wegen 2€ weniger und probieren etwas anderes aus. In Firmen dauert der Prozess noch viel länger.
Wegen 2 Euro wechselt man auch nicht. Wenn es aber stimmt das ein Plus Abo bald 44€ kosten soll, dann dürften sich in Zukunft wohl mehr private Nutzer umorientieren. Im unternehmerischen Umfeld ist das natürlich was anderes.
Ich hoffe aber mal das sich der Preis durch die ganzen lokalen/Open Source LLMs eher wieder nach unten bewegen wird.

dernettehans schrieb:
Kannst du mal einige empfehlen, nutzt du LM Studio? Kannst du da welche für Programming empfehlen die auch mit 16GB VRAM laufen?
LM Studio geht auch, ich nutze aber auch ganz gerne Open WebUI. Das hat ähnliche Features wie die UI von ChatGPT. Schau dir auch mal Pinokio an. Damit lassen sich eine menge verschiedener AI Projekte auf dem rechner quasi sofort gebrauchsfertig installieren.
Was die Empfehlung für das richtige LLM angeht, wird es schon schwieriger. Auch hier hilft im übrigen chatgpt weiter. Weil ich vor ein paar Tagen selbst genau das selbe erfragt habe, habe ich chatgpt mal gefragt, was er für 16 GB Vram empfiehlt (ohne den Fokus auf Programmierung zu berücksichtigen). Das war (gekürzt) die Antwort:

Vergleich der Modelle für komplexe Prompts (angepasst an 16 GB VRAM):​

ModellVRAM-Anforderung (GB)Geeignet für komplexe PromptsStärkenSchwächen
Falcon 2 (11B)~13-14 GBSehr gutStrukturierte Prompts, Mehrschritt-Aufgaben, detailliertBei sehr technisch komplexen Prompts langsamer
LLaMA 3.2 (7B)~10-11 GBGutGeeignet für mittlere bis komplexe PromptsBegrenzte Tiefe im Vergleich zu größeren Modellen
Mistral 7B~8-10 GBGutSchnell, effizient bei mittleren bis komplexen PromptsNicht ideal für stark verschachtelte Anweisungen
Qwen 2.5 (7B)~8-10 GBGutBalance zwischen Tiefe und GeschwindigkeitNicht so tiefgehend wie die 14B-Version

Fazit:​

  • Falcon 2 (11B) ist die beste Wahl für die Erstellung von komplexen Prompts, die tiefgehende und strukturierte Anweisungen erfordern. Es nutzt den Großteil des 16 GB VRAM aus, bleibt aber innerhalb der Leistungsgrenzen.
  • LLaMA 3.2 (7B) und Mistral 7B sind effizientere Optionen, die weniger VRAM benötigen und eine gute Leistung für mittelschwere bis komplexe Prompts bieten.
  • Qwen 2.5 (7B) bietet eine gute Balance zwischen Tiefe und Effizienz und ist für 16 GB VRAM gut geeignet.
  • Qwen 2.5 (14B) sollte vermieden werden, da es die VRAM-Grenzen überschreitet und dadurch die Leistung beeinträchtigt oder das Modell nicht vollständig geladen werden kann.

Empfehlung:​

  • Falcon 2 (11B) ist die beste Wahl für tiefgehende, verschachtelte Prompts, wenn du die maximal mögliche Leistung aus deinen 16 GB VRAM herausholen möchtest.
  • Mistral 7B und Qwen 2.5 (7B) sind gute Alternativen, wenn du mehr Effizienz und schnellere Antwortzeiten bei moderaten Aufgaben bevorzugst.
 
  • Gefällt mir
Reaktionen: dernettehans
@dernettehans Die Fähigkeiten des Chatfensters. Es besitzt nicht die Fähigkeit Codeblöcke getrennt vom restlichen Text anzuzeigen. Beim Kopieren von Texten aus einer Antwort konnte ich immer nur die gesamte Antwort in die Zwischenablage kopieren auch denn wenn ich nur einen Teil markiert hatte. Allerdings habe ich LM Studio unter Linux benutzt. Kann sein das der Linuxport nicht so ausgereift ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dernettehans
Da ich bei 20€ schon abgeschreckt wurde, werde ich es bei 22 ganz sicher sein.
 
Ayo34 schrieb:
Ich wollte dich auch nicht angreifen und sehe Fotografen als sehr wichtig an. Aber das allgemeine "keine KI-Bilder" erstellen ist eben auch Mist. Es gibt für alles Anwendungsfälle und der Stromverbrauch ist eben minimal im Gegensatz zu einem selbst geschossenen Foto.
Also dein Vergleich ist dämlich as hell (sorry)
Bei seinem Fotoequipment fragst du was das alles in der Herstellung an Ressourcen verbraucht hat. Schonmal drüber nachgedacht was ein Rechenzentrum an Ressourcen verbraucht nur bis es steht?? Ich vermute Mal da kannst du Millionen von Fotos schießen inkl. Flug :freak:
 
Appel soll sich, anders als in der News angegeben, aber inzwischen aus der Investitionsrunde zurückgezogen haben
 
dragnod0 schrieb:
Die Fähigkeiten des Chatfensters. Es besitzt nicht die Fähigkeit Codeblöcke getrennt vom restlichen Text anzuzeigen.
Keine Ahnung, welche Beta du genutzt hast, aber das ist seit Monaten behoben - auch in der Linux-Variante. Ich kenne es ehrlich gesagt nicht anders als mit hervorgehobenen (rauskopierbaren) Code-Blöcken.

dernettehans schrieb:
Kannst du mal einige empfehlen, nutzt du LM Studio? Kannst du da welche für Programming empfehlen die auch mit 16GB VRAM laufen?
Es kommt natürlich auf die Sprache drauf an, aber ich hab mit Qwent-2.5-Coder (7b Parameter) gute Erfahrungen gemacht. Llama 3.2 steht auf der Test-Liste. Nachteil von LM Studio ist leider, dass die Modelle als .gguf vorliegen müssen, das kann man zwar selbst umwandeln, aber ist eben doch für das schnelle Testen etwas ungünstig.
 
  • Gefällt mir
Reaktionen: dernettehans
Tja, das ist doch nicht verwunderlich, das müssen sie früher oder später auch machen.

Triky313 schrieb:
Die Gier der Menschen wird nie ein Ende nehmen.

twrz schrieb:
Da unterschätzt man wohl die Konkurrenz à la Anthropic. 20,- Dollar sind m.E. der Sweet Spot.

Crystal3684 schrieb:
Ich hätte schon lange zu Claude gewechselt wenn die im Pro-Tarif kein Limit hätten. Über 40$ ist zu viel lol. Die Konkurrenz schläft nicht

Der Springende Punkt ist nämlich, mit dem Preisniveau von 20$ macht nicht nur OpenAI Verluste, sondern auch die Konkurrenz.

Die Zukunft wird zeigen ob sich bei KI überhaupt ein Tragfähiger Markt etabliert. Aktuell wird dort in der Branche zumindest massivst Geld verbrannt.

Und wenn man sich das Wettrüsten anschaut, muss man sich schon fragen wie das ganze Geld dadurch wieder reingespielt werden soll.
 
tomgit schrieb:
Keine Ahnung, welche Beta du genutzt hast, aber das ist seit Monaten behoben - auch in der Linux-Variante. Ich kenne es ehrlich gesagt nicht anders als mit hervorgehobenen (rauskopierbaren) Code-Blöcken.
Die vor 2 Monaten oder so.
Habe es jetzt noch mal getestet und LM Studio erzeigt jetzt wirklich code-blöcke.
Das mit dem rauskopieren von teilen der Antwort ohne code-block funktioniert noch immer nicht.

Ist halt nervig wenn man Texte schreiben lässt und der chatbot dann noch seinen senf dazugibt.

EDIT: Das geht ja jetzt auch. Nur eben nicht mit STRG+C.

LM Studio scheint sogar etwas performanter zu sein als Open WebUI.
 
Zuletzt bearbeitet:
7H0M45 schrieb:
Und wenn man sich das Wettrüsten anschaut, muss man sich schon fragen wie das ganze Geld dadurch wieder reingespielt werden soll.
Da wird gar nix verbrannt. Die Betreiber wissen ganz genau, warum sie auf CPUs und GPUs setzen, und keine eigenen ASICs dafür betreiben: Die CPUs braucht man ohnehin für den Betrieb der Serverfarmen, und die GPUs kann man für das nächste "Next Big Thing" verwenden. kA, mit dem Mistrauen in Kommunikation evtl. auf eine Small Blockchain oder vllt. zur Berechnung auf anderen Datensätzen.

Das ist halt das Problem von OpenAI, Claude und den anderen LLM-Unternehmen: Sie haben halt keine anderen Produkte, wofür sie die Hardware sonst verwenden können. Ob Microsofts Server nun dafür verwendet werden, ob LLMs trainiert, Spiele gerendert oder sonstige ML-Produkte drauf inferiert werden, ist Microsoft und der Hardware eigentlich egal. Das selbe gilt für AWS und Google. Selbst Xitter kann die Hardware noch für andere Musk-Unternehmen bereitstellen, gerade SpaceX und Tesla können davon auch nicht genug haben.

Als kommerzielles Unternehmen muss OpenAI das Portfolio diversifizieren. Darauf zu bauen, dass jeder, der jetzt schon GPT Pro bezahlt auch das 2,2-fache dafür bezahlen würde ist mutig.

dragnod0 schrieb:
Das mit dem rauskopieren von teilen der Antwort ohne code-block funktioniert noch immer nicht.
Ah, so rum habe ich es auch noch nicht probiert, aber den Code kann man per Klick rauskopieren. Ja, wenn man den ganzen Text ohne Code haben möchte, ist das unschön.
 
dernettehans schrieb:
"Laut Medienberichten will OpenAI die Preise für ChatGPT Plus erhöhen. Für die kommende Jahre erwartet man aber ein kräftiges Umsatzplus." Hä? Wieso aber? Ja natürlich erwartet man ein kräftiges Plus wenn man die Preise kräftig erhöht.
Ich fand den Zusammenhang auch so einleuchtend, dass ich mich frage was das aber da soll.
 
7H0M45 schrieb:
Die Zukunft wird zeigen ob sich bei KI überhaupt ein Tragfähiger Markt etabliert.
Wenn die wirklich die Preise dermaßen erhöhen, wird da noch eine Menge Bewegung reinkommen.
Denkbar ist auch, dass der Grafikkarten Markt für gute Consumer Karten anziehen wird.
Je nachdem was und wie viel man mit den Ki's anstellen will, kann sich das nämlich schnell rentieren.

tomgit schrieb:
Ah, so rum habe ich es auch noch nicht probiert, aber den Code kann man per Klick rauskopieren. Ja, wenn man den ganzen Text ohne Code haben möchte, ist das unschön.
Das geht jetzt auch. Markieren -> mit der rechten Maustaste drauf klicken -> Copy Selection
 
dragnod0 schrieb:
Das geht jetzt auch.
Nimmt aber die Code-Blöcke mit. Dachte, darum geht es ja, dass die nicht mitkopiert werden sollen :)
 
Zurück
Oben