News Nvidia: Mit GeForce RTX wird der „AI-PC“ zum „Premium AI-PC“

chillipepper schrieb:
dass Leute, die von der Materie keine Ahnung haben, das für bahre Münze nehmen.
bare... (SCNR)

Randnotiz schrieb:
Jenson kippt hier mal wieder krass Öl ins Feuer.
Das kann man in meinen Augen so nicht sagen.
Was spricht denn dagegen die Regeln für den Aufkleber einfach so zu definieren, dass ein RTX-Laptop auch einen bekommt, weil es eben auch (ohne dedizierte NPU) durchaus KI-fähig ist?
Es wäre ja sogar denkbar einfach zwei Aufkleber zu nutzen: z.B. "AI-PC efficiency" und "AI-PC performance".
 
Was genau habe ich als Privatkunde eigentlich für Anwendungsfälle für einen Premium-KI-PC? Was genau kann ich damit machen? ChatGPT usw. läuft ja in der Cloud und braucht keinen besonderen PC.
 
SavageSkull schrieb:
Jetzt mal im Ernst, who cares, was Microsoft für einen Aufkleber auf den PC klebt.
Viele! Und noch mehr, wenn sich dazu ein Premium Aufkleber von NiVidia gesellt. 😉

Den größten Mehrwert sehe ich dann darin, wenn die Akkulaufzeiten durch effizienteres Abarbeiten bzw. Auslagern auf über 20h kommen.
 
Abrexxes schrieb:
@marcel151 , mit nem Premium kannst du halt gut zocken da RTX. Mit nem reinen AI eher nicht da wahrscheinlich iGPU. ^^
Es geht doch gar nicht ums zocken, sondern ich meinte die KI-Funktionen im speziellen. Das man mit einer dedizierten Karte besser zocken kann ist völlig klar.
 
AI hier, KI da, ich kann’s nicht mehr lesen oder hören. Bin nur noch genervt davon, geht es nur mir so?
 
  • Gefällt mir
Reaktionen: 4lter5ack
@marcel151 , um KI geht es hier auch nicht. Nur darum wie man die nächste CPU/GPU mit welchem Dummschwätz und Kleberlies an die DAUs kriegt. Die KI Funktionen die Sinn machen werden so oder so funktionieren, sogar ohne CoPilot Taste. 😜
 
Doch natürlich geht es hier um KI. Deshalb ja auch meine Frage WAS GENAU man damit als Privatperson machen soll.
 
ZeusTheGod schrieb:
Es wäre ja sogar denkbar einfach zwei Aufkleber zu nutzen: z.B. "AI-PC efficiency" und "AI-PC performance".
Damit wir den Horror von Upscaling auch noch im Marketing haben? 👀
Ist ja schon mit CPUs ein Graus.

Klar wird man das ganze wieder ordentlich ausschlachten, bis entweder kein Hahn mehr danach kräht, oder sich irgendwas wirklich durchgesetzt hat, aber so ein einheitlicher Richtwert wäre schon sinnig.

Bei Linux regen sich ja auch immer alle über die 1000 Distributionen auf, wo keiner durchblicken will.
 
Termy schrieb:
Wie viel Geld und Zeit man weltweit doch sparen könnte, würde man dieses ganze hohle Marketing-Geblubber einfach sein lassen :rolleyes:
Ohne dieses Geblubber kann man den unmündigen DODO Käufer nicht dazu nötigen unnötige Hardware für unnötige nicht definierte Usecases zu kaufen.

Hier haste deine NPU + GPU .
Ultra-Premium-AI - Super Duper PC.
GEIL! 100 TOPS!!!!!!!

Kunde: "Was bringt mir das jetzt genau? Welchen effektiven Usecase habe ich dadurch in meinem Notebook/Desktop"?

M$ und alle anderen: "1000000 TOPS!!! AI AI AI" :king:
 
@marcel151 , Texte generieren, Listen erstellen, Allgemeine Datenverarbeitung, Bildbearbeitung/erzeugen, Videobearbeitung/erzeugen, Soundverarbeitung/erzeugen, Automatisierung, Und und und. Also alles was mit entsprechender Software auch jetzt schon geht. Wie gut das funktioniert ist ein Software Problem, wie schnell Hardware. Was auf dem SOC und was auf der Graka laufen wird entscheiden die Anbieter der Software. Nicht Microsoft und nicht Intel! Ausnahme..Copilot wenn MS das so will aber KI =! Copilot.
 
Konsumkind schrieb:
Das ist schon wieder so ein Affentheater, unglaublich :D
TigerherzLXXXVI schrieb:
... Einen wirklichen Mehrwert bieten sie nicht. Zumal ich der Auffassung bin: der Mensch sollte sein Gehirn gerade in der heutigen Zeit nicht auch noch komplett abgeben...
Sehe ich komplett anders. Für […]Text-Gerüste […] Einfache Funktionen in JS […] Bildmaterial für Präsentationen […] Und das sind jetzt nur ein paar einfache Anwendungsfälle aus meinem Alltag.
Und jetzt lies Dir nochmal den ersten Satz von Tigerherz durch:
TigerherzLXXXVI schrieb:
Für mich sind die meisten aktuellen KI-Anwendungen für Privatanwender nichts weiter als Spielerei
Mag ja sein, dass Du zu den 0,1% Menschen gehörst, die in ihrem Privatleben oft genug Textgerüste, Javascript-Funktionen und Bildmaterial für Präsentationen brauchen… die allerallermeisten brauchen das in ihrem Privatleben nicht.

Ich sehe ja ein, dass es im Arbeitsumfeld sicher einige Leute gibt, die das brauchen. Gibt ja auch heute im Arbeitsumfeld ein paar, die echte Workstations brauchen. Vielleicht… 5% der Büroarbeiten? 10% ?

Selbst hier… die allermeisten nicht.

Übrigens hat mir eben mein PC beim editieren hier im Browser mehrfach verarscht. Mal war plötzlich der Tab weg, mal der Text im Editfeld weg. Klar… alles… ähm… „Anwendungsfehler“. Aber wie sag ich aktuell gerne?

Die IT-Industrie weigert sich seit 20 Jahren das Mail-System besser zu machen, die Betriebssysteme stagnieren ebenfalls seit rund 15 Jahren, es passieren ständig nervige Scheiss-Fehler auf einfachster (Software)Ebene und STÄNDIG erfinden Programmier-Gruppen das Rad auf allen Ebenen neu. Ich kriege das im Konzernumfeld bei Portalen, die ständig von ganz unten neu programmiert werden mit. Aber auch in Datenbank-, Analyse- und anderen Feldern wird ständig von unten alles neu programmiert.

Microsoft und alle anderen großen Konzerne schleppen Code aus den 90ern mit sich und statt endlich vernünftige, fortgeschrittene Funktionsbibliotheken wenigstens für sich selber zu bauen, wird andauernd an der fucking Oberfläche rumgeschraubt, als ob der selbe Mist mal mit 3-D-Buttons und mal im „FlatDesign“ funktionell irgendwas neues bieten würde.

Die Software-Industrie ist in meinen Augen seit über 10 Jahren in einer katastrophalen Sackgasse. Und nun lassen die Leute auch noch ein selbstlernendes System Ergebnisse produzieren und KEINE SAU hat den Hauch eines Schimmers, wie dieses Ergebnis überhaupt zustande gekommen ist, und wo hier evtl Fehler oder Probleme bestehen könnten.

Ich hoffe inständig, dass dieser KI-Hype richtig weiter explodiert… und uns dann so richtig um die Ohren fliegt - nicht in Form der bösen KI, die alles übernimmt, sondern von Bugs, die erhebliche, systemweite Wirkung haben und kein Mensch hat den Hauch eines Schimmers, was zu tun ist, weil nunmal selbstlernende Systeme diese Bugs irgendwo eingeschleust haben.
Anders formuliert: Selbstlernende Systeme sind nicht besser als Menschen - aber sicher schneller. Umso schneller können uns die Fehler dann auch um die Ohren hauen, weil eins hat unsere Wirtschaft noch nie gerne getan: Sicherheiten eingebaut (ausser sie werden dazu gesetzlich verpflichtet). Weil kostet ja Geld. Also… hoffe ich einfach, dass es so richtig krachen wird. Anders kapiert unsere Wirtschaft ABSOLUT GAAAAAR NICHTS.

Ach so - der Rant über die Software-Indusie hat nichts mit Dir zu tun, @Konsumkind. Allen, die selbstlernende Systeme nützen, sollen die unbedingt verwenden. Da war ich noch nie dagegen.
Allerdings habe ich sehr oft den Eindruck, dass Leute denken, sie selber sind irgendwie gleichzeitig jemand ganz besonders dolles, aber auch gleichzeitig der Normalfall. Unsere Hirne sind schon lustige Organe.

Die meisten, die hier schreiben, sind bzgl. IT ganz sicher nicht der Normalfall. Oft sogar höchst spezialisierte und in ihrem Job ganz besondere Fachleute. Tun dann aber manchmal so, als ob jeder Account Manager im Büro dieselben Dinge am Computer tut.

Natürlich ist KI einerseits Marktgeschrei... aber andererseits wird KI gerade in vielen geistigen Tätigkeiten ne Menge Dinge umkrempeln. Und zwar auch dort, wo aktuell noch auf breiterer Ebene viel Geld an Menschen verteilt wird. Ärzte, Juristen, aber eben auch Programmierer, Texteditoren, etc etc... das sind vorwiegend Akademiker, die zum Teil schon ordentlich Kohle nach Hause tragen.
Irgendwie finde ich den Gedanke verlockend, dass endlich auch mal die obere Mittelschicht Angst haben sollte. Aber stabiler wird unsere Gesellschaft dadurch ganz sicher nicht.
Und ob die Ergebnisse dann wirklich BESSER werden? Hier oder da sicher mal. Aber oft genug... wird man das nichtmal messen wollen oder gar können. Hauptsache es lässt sich weiter "Geld sparen". Weil Geld ja eine Naturgrösse ist, die wir Menschen unbedingt sparen müssen. Machen ja schon Giraffen und Delphine. Geld war quasi direkt nach dem Urknall da und sollte unbedingt "gespart" werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chillipepper, 4lter5ack und Mensch_lein
bensen schrieb:
KI macht das, was ihr gesagt wird. Sammeln und analysieren passiert seit zig Jahren. Sehe jetzt nicht gerade das Potential, dass das dramatisch schlimmer wird durch KI.
Dass das Werbeprofil nicht mehr Online erstellt wird anhand den Daten die du an ihre server schickst, sondern das der AI Bot dich überwacht was tu tust und somit Werbung anfordert die du am wahrscheinlichsten auch benötigst.
Kann vor und nachteile haben.


Booth schrieb:
Die IT-Industrie weigert sich seit 20 Jahren das Mail-System besser zu machen,
Never change a running System.
Nein scherz. Hätte es schon bitter nötig, das E2E verschlüsselung von haus aus integriert ist. Aber eben leider funkt E-Mail wie Fax. Systemkritisch. Das wird die nächsten 30 Jahre auch noch so weiter gehen!

marcel151 schrieb:
Doch natürlich geht es hier um KI. Deshalb ja auch meine Frage WAS GENAU man damit als Privatperson machen soll.
Kaufen sollst du es! Darum hat es ja den "AI PC" aufkleber drauf!
 
Sollten dedizierte NPUs nicht theoretisch auch schneller sein können, wenn man sie entsprechend skaliert? Wenn ich jetzt mal an einen Desktop PC denke, mit einer entsprechend ausgestatteten NPU Karte, dann müsste diese doch für Dinge wie generative Modelle deutlich performanter und effizienter laufen als eine GPU. Die GPUs haben halt derzeit den Vorteil, dass es in diesen Größenordnungen derzeit noch gar nichts gibt.
 
NEO83 schrieb:
Ausser Preis und Verbrauch dürfte da wohl eher weniger Premium sein und ist gerade im Mobilen Umfeld nicht unbedingt toll wenn der Akku leer gesaugt wird.
Es gibt so eine Aussage von Qualcomm: Die NPU des Elite verbraucht 2 W, während die Intel CPU für die gleiche Aufgabe 20 W verbraucht. Nur schweigt Qualcomm darüber, wie viel der gesamte SoC verbraucht, um die NPU mit Daten zu versorgen (wird sehr wahrscheinlich nicht viel sein). Eine 4060er wird den Verbrauch sehr wahrscheinlich mindestens verdoppeln (für Nvidias eigene Alternative zu Windows Studio Effects), aber diese sind mit hoher Wahrscheinlichkeit qualitativ besser.

Der Nutzer mit "Premium AI Laptop" wird entscheiden müssen, wie viel er für vermeintlich bessere AI-Effekte an Laufzeit opfern will.
 
Dark Thoughts schrieb:
Die bekannteste dedizierte NPU ist der Google Coral, oder zumindest der am weitesten verbreitete, bei Endnutzern im Privatumfeld.... was auch grossteil an den Kosten liegt.
Was man damit machen kann? Alles wofür du ihn programmierst!
Wofür er effektiv genutzt wird? Nur für Frigate Bild erkennung für Lokale Überwachungskameras.
 
Nvidia hat allem Anschein nach die Hosen voll, anders kann man das kleinkindliche, trotzige Verhalten
nun wirklich nicht deuten.
Wohl panische Angst das es nächstes Jahr 1 Milliarde weniger am KI Kuchen zu verdienen gibt.
 
100-1300+ INT8 TOPS ? Eine 4090 hat ja gerade mal 661 INT8 TOPS. Dürfte gleich zeigen wo die Reise mit einer 5090 hingeht was das angeht. In Richtung doppelter TOPS ggü. einer 4090. Ob das für Spiele hilfreich sein wird bleibt abzusehen.

Aber für meine ML/DL Anwendungen wirds sicher geil. :D
 
  • Gefällt mir
Reaktionen: dualcore_nooby
Zurück
Oben