News Nvidia: Mit GeForce RTX wird der „AI-PC“ zum „Premium AI-PC“

95% der ottonormalnutzer können mit dem schlagwort ki/ai kaum was anfangen..die lesen nur dass das das neue große ding ist, eine "revolution"..aber was man damit genau anstellen soll, oder wo das im it-alltag irgendwie nützlich sein soll..wie gesagt..da ist geistige windstille...
 
  • Gefällt mir
Reaktionen: Restart001 und 4lter5ack
LamaMitHut schrieb:
Die ganzen kindischen Kommentare sind halt eher Beleg dafür, dass Nvidia / Microsoft und co mit der Vermarktung auf dem richtigen Weg sind.

Unter DLSS und anderen Funktionen die im Smartphone schon seit Jahren Kaufargument sind können sich die meisten halt nichts vorstellen, also muss es der "AI" Aufkleber sein.
Also das iPhone hat einwandfrei funktionierende ML-Suche mit Objekterkennung in Bildern seit 2017 mit ca. 2 TOPS.

Das ist nichts, man hätte solche Funktionen problemlos seit Ewigkeiten über die iGPU realisieren können.

Microsoft hat Windows einfach extrem vernachlässigt, das ist der einzige Grund.
 
  • Gefällt mir
Reaktionen: Mcr-King und MalWiederIch
Ich weiß echt nicht was die Konzerne mit ihren scheiß KI rotz wollen. Vor rund n Monat gabs für mein S23 ultra n KI update. 2 Wochen später fragte mich google assistent ob er im Linienbus in den ich saß Licht anschallten soll.
Zudem ist der Schreibassistent die Texterkennung, die Groß und Kleinschreibung der art verkorkst, so dass ich gezwungen war vor kurzen diese auszuschalten.

@google#Samsung Arbeitet lieber noch n Paar dekarden an eure KI bevor ihr sone Scheiße implementiert.
 
  • Gefällt mir
Reaktionen: 4lter5ack
deekey777 schrieb:
Der Nutzer mit "Premium AI Laptop" wird entscheiden müssen, wie viel er für vermeintlich bessere AI-Effekte an Laufzeit opfern will.
Jemand der einen Laptop kauft weil dort "Premium AI" von NV draufgeklatscht wurde, dem ist eh nicht mehr zu helfen. Ob die Qualität auch wirklich besser ist muss sich ja erstmal zeigen und es ist vllt auch einfach so das es auf den NPUs bei gleicher Qualität einfach nur länger dauert es unterm strich aber effizienter bleibt.

Premium bedeutete noch NIE das etwas auch sparsam ist ... im Regelfall das Gegenteil wenn man sich mal bei Autos, Häusern, aktuellen Laptops etc umschaut ... alles was als Premium verkauft wird ist in der Regel nicht auf geringen Verbrauch ausgelegt!
 
nomika schrieb:
Wenn eine Taste den PC intelligent macht ... :freak:
Die blase muß doch am laufen gehalten werden ;)

Wer hoch fliegt, der wird tief fallen
 
  • Gefällt mir
Reaktionen: Chesterfield
Mmmmmh, Premium.
so_good-554036679.jpg


Leider kann ich mir keine Nvidia RTX leisten.
 
  • Gefällt mir
Reaktionen: Restart001, ThirdLife und Rockstar85
ghecko schrieb:
Mmmmmh, Premium.

Leider kann ich mir keine Nvidia RTX leisten.
Keine Sorge, da wird es wieder findige Händler bei Amazon geben, welche Dir den schnellen Premium AI-Gaming-PC für 299 EUR verkaufen! Mit neuester AMD FX-CPU, dem GeForce 730 GT-Gaming-AI-Beschleuniger und 32 GB-Premium-DDR3-Speicher (mit freiem zweitem Slot für bessere Aufrüstbarkeit).
 
  • Gefällt mir
Reaktionen: Restart001
KlaasKersting schrieb:
Also das iPhone hat einwandfrei funktionierende ML-Suche mit Objekterkennung in Bildern seit 2017 mit ca. 2 TOPS.

Das ist nichts, man hätte solche Funktionen problemlos seit Ewigkeiten über die iGPU realisieren können.

Microsoft hat Windows einfach extrem vernachlässigt, das ist der einzige Grund.
Bestätigst du mich damit nicht eher in der Ansicht, dass das ganze Thema noch nicht richtig vermarktet wurde, bzw sich der Otto normal user wenig unter sperrigen Abkürzungen wie "DLSS" oder "NVIDIA ChatRTX" vorstellen kann?
 
Ach, wird sicherlich mit den ersten Conv Ai Spielen inkl. Nvidia Logo reißenden Absatz finden.
 
  • Gefällt mir
Reaktionen: Restart001
Haldi schrieb:
Die bekannteste dedizierte NPU ist der Google Coral, oder zumindest der am weitesten verbreitete, bei Endnutzern im Privatumfeld.... was auch grossteil an den Kosten liegt.
Was man damit machen kann? Alles wofür du ihn programmierst!
Wofür er effektiv genutzt wird? Nur für Frigate Bild erkennung für Lokale Überwachungskameras.

Die sind halt noch recht klein und eher Devkits. Bis zu einer performanten plug & play Lösung die von den entsprechenden Tools erkannt werden, sind wir noch immer recht weit entfernt.
 
KlaasKersting schrieb:
Also das iPhone hat einwandfrei funktionierende ML-Suche mit Objekterkennung in Bildern seit 2017 mit ca. 2 TOPS.

Das ist nichts, man hätte solche Funktionen problemlos seit Ewigkeiten über die iGPU realisieren können.
https://github.com/greyovo/PicQuery
Hier kannste auf jedem Android Phone testen wie schnell das geht.
Ist aber auch komplett irrelevant!
Wenn man 1x die komplette Datenbank gemacht ist nur noch die "Pro Foto" zeit wichtig, und die könnte das gerät auch einfach mal über nacht beim Laden machen....

Aber google will halt lieber das du deine Photos in die Google Cloud hochlädst damit sie alles auswerten können.
 
Na dann bin ich mal gespannt, wie sich die (NVIDIA) GPU-Preise in Zukunft entwickeln.
Wenn der Hype noch länger anhält, was ich befürchte, dürften Ai&Co wohl das neue crypto-mining werden.

Und sollten die neuen Karten wirklich so KI-stark werden, dürfte ein großer Teil davon in China oder Russland landen.
 
Huch schon mehr als ein Monat ist der Artikel/Thread online. Hier bei Mir hats auch immernochnicht klick gemacht. Mir fällt keinen praktischen Nutzen ein AI/KI zu nutzen. Ok, unbedarfte Spielchen mit Stable Diffusion und GPT. Meine Fragen an die AI sind erschöpft, ebenso die Ideen für neue Fragen. Außer vielleicht wann wird die Blase brechen!?
 
Restart001 schrieb:
Angeblich -15% Kursverluste, diese Woche. Das wird noch kritisch.
Klingt mir eher nach Wunschdenken. Unsinn, da wird nichts kritisch.

Das sind einfach nur Gewinnmitnahmen, die wurden schon seit Monaten erwartet, und nun sind sie halt eingetreten.
In relation zu den Kursgewinnen seit zwei Jahren, sind die paar Punkte Verlust aber zu vernachlässigen.
Mittlerweile steigt der Kurs sogar wieder:
https://www.finanztrends.de/nvidia-aktie-spricht-fuer-ende-korrektur/

Dem Unternehmen geht es also nach wie vor bestens

Das der KI-Hype langsam abebbt mag sein, und wird auch langsam Zeit. Aber KI ist keine Blase.
Die technologie ist gekommen, um zu bleiben, und da gibt es noch wenig nennenswerte Konkurrenz zu NVIDIA.
 
Zurück
Oben