News „Chat with RTX“-Demo: Nvidias AI-Chatbot läuft nach Download lokal auf RTX 30 & 40

dernettehans schrieb:
Karten mit 32-64GB VRAM wären dann durchaus verständlich und plausibel. Aber Nvidia geizt ja leider dabei. Oder man könnte einfach VRAM nachrüsten über Slots auf ner GPU.
Ich frage jetzt mal ganz naiv als jemand der wenig bis keine Ahnung davon hat: Wieso kann die GPU nicht den Arbeitsspeicher nutzen? Zu Zeiten von PCI-Express 5.0 und DDR5 Arbeitsspeicher ist doch die Leistung gigantisch. Wieso also nicht Arbeitsspeicher nutzen oder was spricht dagegen?
 
  • Gefällt mir
Reaktionen: dernettehans
@FX9590 hab ich mich auch schon gefragt, eine plausible erkärung dafür hab ich bisher nicht gehört. das müsste ja mit resizable bar gut möglich sein. aber irgendwie ist es wohl um größere faktoren zu langsam, wieso weiss ich jetzt nicht genau. wäre natürlich die einfachste lösung, wenn man in der zukunft einfach 128gb RAM hat in seinem gaming pc, und davon ein großer Teil von der GPU genutzt werden könnte für machine learning Aufgaben.
 
Zurück
Oben