• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Nvidia ACE ausprobiert: KI-NPCs machen Spaß, eine RTX 4060 hat aber zu wenig VRAM

peDekaa schrieb:
Ja eine 4060 hat nur 8 GB VRAM. Aber für welche Zielgruppe ist die gebaut worden? Kinder die Fortnite oder LoL auf 1080p spielen und die gerne auch mal den Regler auf Mittel schieben nur um "max FPS" zu bekommen weil sie dann "besser" sind.
Was ist dass denn für eine Argumentation? :freak:
 
  • Gefällt mir
Reaktionen: SweetOhm
Novasun schrieb:
Bei deiner Argumentation kannst du nur von Glück reden, dass AMD nicht hingeht irgend einen Filerfanz optisch fabriziert das sie geschlossen nur auf Ihren Grafikkarten schnell und gut laufen lassen. Und dann Entwicklern Geld in den Rachen werfen damit sie den Mist einbauen.

Weil dann bräuchtest du nach deiner Argumentation 2000€ zukünftig.. Oder müsstest auf eine ganze Reihe Spiele komplett verzichten... Weil Herstellerexklusiv...
Also findest du es richtig 1000€ und mehr zu zahlen um dann nicht alles spielen zu können in den besten Einstellungen?

floh668 schrieb:
Du vergisst eine nicht zu unterschätzende Gruppe an Spielern die auf 4K Monitore gewechselt sind, aber weiterhin alte Titel spielen ;) 4K Gaming ist nicht nur 4K neue AAA Titel Gaming.

1080ti reicht z.B. für SC2, Diablo 4 und praktisch alle "normalen" games in 4K aus.
Die habe ich natürlich nicht vergessen. Aber in dem Bezug den ich meinte, waren aktuelle Spiele gemeint.

jonderson schrieb:
Was ist dass denn für eine Argumentation? :freak:
Eine die sagt, die 4060 hat nicht die Zielgruppe um NVIDA ACE zum laufen zu bringen. Die meisten die sich diese Karte kaufen, wissen noch nicht einmal was Raytracing, geschweige denn Frame Gen, ist.
 
Also ich habe eine RTX 3070 mit 8 GB im Gaming-Desktop. Wird jetzt ein neues Spiel angekündigt, gehe ich kurz die Systemvoraussetzungen durch. Passt es zu meiner RTX 3070, dann gut. Passt es nicht, dann ist es auch gut, denn dann kommt das Spiel für eben mich nicht infrage. Es gibt jeden Monat so viele neue Spiele. :-))
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Sirhaubinger und RogueSix
peDekaa schrieb:
Eine die sagt, die 4060 hat nicht die Zielgruppe um NVIDA ACE zum laufen zu bringen. Die meisten die sich diese Karte kaufen, wissen noch nicht einmal was Raytracing, geschweige denn Frame Gen, ist.
Ich glaube du solltest mal ein wenig über den Tellerrand schauen.

Computerbase ist ein Forum wo sich wohl zum größten Teil Hardware-Enthusiasten aufhalten.
Das ist aber nur eine kleine Schnittstelle von Gamern.

Oft funktioniert der Entscheidungsprozess für eine Grafikkarte so:
Okay Nvidia bietet die beste Grafikkarte, also kaufen ich eine RTX4060, muss ja auch die beste Grafikkarte in der Klasse sein.

Ja die nutzen vielleicht eh kein Raytracing oder FrameGen, aber Ace könnte, je nachdem wie es gemacht ist, ein Spiel relevantes Features zu sein...
 
  • Gefällt mir
Reaktionen: SweetOhm
Verstehe nicht wie weit ich noch über den Tellerrand schauen soll wenn ich sage, dass die 4060 die Zielgruppe außerhalb dieses Forums ist.

Wie bereits erwähnt, ist ACE erst in den nächsten 3-4 Jahren Relevant, wenn überhaupt. Dann ist eine 4060 4 Jahre alt und ich kann als Besitzer einer diesen nicht erwarten das ich mit einer so alten Karte dann jede neue Technik Ingame verwenden kann. Des Weiteren kann ich mir vorstellen, das man dieses Feature in den Optionen Ein- Ausschalten werden kann um 1. alte GPU´s zu unterstützen und 2. Ressourcen zu sparen. Wenn es dann deaktiviert ist, hat man klassische Dialoge wie z.B. bei den guten alten Bioware Spielen.

Haben ja auch einige hier gesagt, dass sie gerne auf das Feature verzichten können und würden. Dann deaktivieren und lieber 50 FPS mehr Ingame haben. Wüsste nicht was dagegen spricht.
 
Bezeichnend, von unserem VRAM Geizkragen Nummer 1

Selbst 5080 hat bestimmt immer noch nur 16GB.
 
"Machine learning böse! Böses machine learning! Aus! Ab in die Hütte!"*

*weltweit verfügbar, ausgenommen EU Staaten

fryya schrieb:
Selbst 5080 hat bestimmt immer noch nur 16GB.
Wozu auch mehr wenn das Speichermanagement und die Bandbreite stimmen? Um den Entwicklern die Optimierungen zu ersparen? Aber 18/20 GB wären schon nice.

Besser als 16GB auf ne Midrange Karte zu packen, wo sie "nur da" sind aber außer Stande etwas zu bewirken...
 
raPid-81 schrieb:
Was für ein exquisiter Post. Hast Du noch mehr zu sagen, z.B. ein Versuch meine Argumente zu widerlegen?

bla bla
Welche Argumente denn ?
Dein "Argument" wurde mit der 4060 doch direkt widerlegt.
Der erste der diese elendige Fanboydebatte in diesen Thread getragen hat warst doch du, bis dahin war hier alles normal und gesittet.
Wenn man natürlich jedwede Kritik an Nvidia als Bashing interpretiert, sieht man auch an jeder Ecke böswillige Fanboys.
Die Tests hier und anderswo zeigen doch immer wieder, das gerade Nvidia Modellen gerne der VRAM ausgeht, auch wenn der GPU eigentlich genug Leistung zur Verfügung steht.
Das du daran immer noch zweifelst, wundert mich dann doch.

@topic

So cool das Ganze klingt, so viel Bauchschmerzen bekomme ich auch dabei.
Wie möchte eine K.I menschliche Dinge wie Sarkasmus,Humor,Trauer und andere Emotionen glaubwürdig übermitteln ?
Gerade menschliche Emotionen sind eine sehr nuancierte Sache, das kann eine K.I einfach nicht,und wird sie auch in Zukunft nicht können.
Das ist ein Job für einen menschlichen Synchronsprecher, und anders möchte ich das auch gar nicht haben.
Wenn ich den Ansatz dieser Technologie ein wenig weiter spinne, und auf die Filmindustrie ausweite,sehe ich dunkle Wolken für die Gilde der Synchronsprecher weltweit!
Gerade im deutschsprachigen Raum haben wir so viele herausragende Synchronsprecher, die möchte ich nicht durch eine K.I ersetzt sehen.
Was wären die Terence Hill/ Bud Spencer Filme ohne die herausragende Leistung der deutschen Sprecher ?
Pixar Filmen würde durch eine K.I etwas essentielles fehlen, die menschliche Emotion die es den Zuschauern erlaubt eine Verbindung zu den am Computer generierten Figuren zu knüpfen.
Ich möchte nicht sehen wie meine Enkelkinder mit durch K.I generierten Müll berieselt werden, sei es Spiel,Film oder Musik.
Man kann viel mit Technologie machen, aber ob man das auch alles machen sollte, steht für mich zur Diskussion.
 
  • Gefällt mir
Reaktionen: SweetOhm
fryya schrieb:
Selbst 5080 hat bestimmt immer noch nur 16GB.
In die Richtung gehen aktuell die Gerüchte, also kein 320Bit Speicherinterface und 20GB (die eigentlich dem Preis der Karte eher angemessen wären) sondern weiterhin nur 256Bit und 16 GB, aber dafür soll wenigstens Billigst/-Einführungs-DDR7 Speicher (mit 28Gbps) verbaut werden.

Schlimmer dürfte es wohl für 70er Blackwell Karten-Käufer kommen, die verhältnismäßig noch weniger als zuvor an Chipleistung (gegenüber der 90er Serie) an Leistung bekommen sollen und bei 12GB weiter stagnieren sollen (wegen des kleineren Chips als der von der 80er Serie) und wann/ob eine RTX 5070Ti dann noch kommt mit gleichem Speicher wie eine RTX 5080, ist auch noch fraglich.

Es wäre aber auch nicht unwahrscheinlich und die RTX 4070Ti Super ist (nach aktuellem Stand) wegen der 16GB und dafür passenden Pathtracing Einsteiger-Leistung die m.E. letzte halbwegs interessante Karte im nVidia Portfolio (die RTX 4090 ist m.E. weiterhin "Overkill" für Gaming), wenn diese in der Blackwell Generation nicht noch über 1000 Euro im Preis gehievt werden wird, was mich nicht wundern würde auch wegen der weiterhin nicht vorhandenen Konkurrenzsituation im High End Bereich mit Blackwell dann schon ab nVidia 80er/70erTi Serien-Level, es sei denn RDNA5 käme noch zeitnah, aber wir wissen ja, wie gut/(zeitlich) zuverlässig AMD mit GPU-Lauches ist).

Laut Gerüchten soll es nur im (Gaming-)Notebookbereich ab/mit Blackwell zwei (sehr) teure dGPUs mit 16GB Speicherausbau geben, allerdings weiterhin nur 8GB für die 70er Serie, was m.E. einer kompletten Kundenäpplung gleichkommt.
Daher hoffe ich, dass die Laptop-OEMs endlich gegen nVidia (und deren Speicherverknappungs-Quasimonopol im dominierten Laptop-dGPU-Bereich) aufbegehren werden oder bei der Konkurrenz evt. fündig werden, auch wenn AMD da leider eher auf dem absteigenden Ast zu sein scheint bzw. vor sich hinschlummert und erst jetzt (viel zu spät) von einer RX 7800M mit 12GB die Rede ist in möglichen Notebookmodellen.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tochan01
floh668 schrieb:
Genau. Extrakarten war doch der Flop schlechthin.
kann man so nicht stehen lassen. Die ersten Vodoo / 3dfx Karten waren Addon und sehr erfolgreich (mussten sogar mit der Main Grafikkarte über VGA verbunden werden). War "damals Killerhardware". Jeder der es "damals" miterleben durfte, weis was ich meine.

Quelle Computerbase.de
3-2160.d3c3b6b1.jpg


Das eine Firma nochmal sowas schafft... ich glaubs nicht. Nochmal so ein Killerfeature, da muss es dann schon die eigene KI sein wie beim neuen Bladerunner oder so. Physx "hätte" damals was werden können, allerdings zu wenig Software / Unterstützung zur damaligen Zeit und dann kam NV. Rest ist Geschichte.

Naja, wir werden sehen was kommt. In 10 Jahren hängen wir eh alle am Tropf der Cloud ohne eigene Hardware auf kleine Client Geräte. Dann is eh egal. Monatlich xxx€ für den Zugang zur Oasis. Die 6er haben gewonnen ;).

Das waren noch Zeiten....
Bildschirmfoto_20240823_121427.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floh668, SweetOhm und Blende Up
tochan01 schrieb:
Interessant wäre es, wenn man sowas auf eine zweite karte schieben könnte, wie z.B. bei Physx.
Oder z.b. auf der iGPU laufen lassen. 8700G hat ja eine dicke NPU und genug Speicher
 
  • Gefällt mir
Reaktionen: eastcoast_pete und Yosup
Piecemaker schrieb:
Kleinere Sachen könnten ganz cool sein, wie in Crysis einfach ins Mic sagen "Maximum Strength" und der Anzug macht es. "Heal" und "Maximum Armor". Solche Dinge könnten dann im Flow ganz spaßig sein.
Deinen Enthusiasmus in allen Ehren, aber so so was wird einem schnell überdrüssig. Spätestens nach dem 10. Mal gehst du in die Optionen und suchst den Shortcut, der das Gelaber ersetzt.

Die meisten Gamer sind extrem bequem. Hast du damals die Wii-Spieler gesehen? Sind haben nicht vor dem TV rumgehampelt, sondern lagen in klassischer Couch-Potato-Haltung im Sessel und zuckten ab und zu mit dem Handgelenk. Und das obwohl der Controller gezielt für Gesteneingaben und die Spiele für die Verarbeitung dieser entwickelt wurden.

ripa schrieb:
Immersion heißt nicht unbedingt, dass ich erzwungen einbezogen werde. Wenn ich dann optional noch in so ein NPC Gespräch einsteigen kann und sie sich dann mit mir weiter über ihr aktuelles Thema unterhalten wäre das ein Sahnehäubchen.
Richtig. Optional ist das Stichwort. Wenn ich in einem hypothetischen Kingdom Come Deliverance 3 auf der Suche nach einer Person jeden Dortbewohner befragen muss und dieser mich erst mal 2 Minuten volllabert, kann das ein Sahnehäubchen oder die Hölle auf Erden sein.

Phobsen schrieb:
Gerade menschliche Emotionen sind eine sehr nuancierte Sache, das kann eine K.I einfach nicht,und wird sie auch in Zukunft nicht können.
'Türlich kann die KI das. Sie muss dazu nur instruiert werden.
Voice Synthesizer konnten vor über 20 Jahren bspw. schon "Kleinigkeiten" wie Atemgeräusche nachempfinden. Ein Beispiel kann man hier hören. Die Stimme ist komplett künstlich, klingt aber so, wie ein echter Sänger bzw. eine echte Sängerin singen würde.
Heute ist man schon so weit, dass man on-the-fly die eigene Stimme in die einer Zielperson oder Zielcharakter transformieren kann. Ein Beispiel kann man sich hier anschauen und -hören. Die dafür nötigen Daten werden direkt aus Stimmaufnahmen (Filme, Streams, etc.) generiert.

Der klassische Beruf des Synchronsprechers wird in den nächsten Jahrzehnten aussterben und durch eine Variante des Tontechnikers, des Übersetzers, jemand anderen oder einer KI ersetzt.

Phobsen schrieb:
Gerade im deutschsprachigen Raum haben wir so viele herausragende Synchronsprecher, die möchte ich nicht durch eine K.I ersetzt sehen.
Das wird aber leider passieren.

Schauspielern wird übrigens (teilweise?) das Gleiche widerfahren. Die beliebtesten Schauspieler werden heute schon wegen diverser Filmanforderungen komplett 3D-gescannt. Diese Daten können genutzt werden, um sie in verschiedenen Filmen spielen zu lassen. Man kann sie sogar von den Toten auferstehen lassen.
Die Technik ist da und wird sicherlich in den nächsten Jahren deutlich günstiger und einfacher zu verwenden. Dann wird man sie auch in den kleinen Produktionen einsetzen.
 
  • Gefällt mir
Reaktionen: shaboo
4b ist wirklich die unterste Schublade bei LLMs und offensichtlich so gewählt, um so wenig wie möglich vom VRAM abzuknipsen. Das klappt vielleicht bei einem Mechaniker-NPC, dem man Fragen zu einem recht begrenzten Topic stellt.

Ein L.A. Noire 2.0 der Zukunft (um mal ein Beispiel zu nennen), in dem man wirklich frei und intelligent mit NPCs und Charakteren interagieren und sprechen will, bräuchte ein deutlich stärkeres LLM. Und grafisch könnten sogar Gesichter und Texturen prozedual durch KI erstellt werden und jedes Spiel einzigartig machen.

Allein der VRAM bei Consumerkarten wird nicht so schnell wachsen, befürchte ich. Technisch wäre Unified Memory wie bei Apple eine Lösung, dann können auch leistungsfähigere LLMs mit 13b, 33b usw. integriert werden. Das würde die Möglichkeiten mit KI im Gaming stark vergrößern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dampflokfreund
Ich sehe die Funktion super in allen Rollenspielen. Vielleicht fallen die unsäglich langen, vorgenerierten Texte weg, die ich lesen muss obwohl ich die Frage gar nicht stellen möchte für die Beantwortung. Generell wird es viel lebensnaher, denn ich muss die richtige Frage Stellen um eine Antwort zu erhalten die mich weiter bringt.
oder lange Fußmärsche zu einem Ziel, wo ich mich einfach mit einem NPC unterhalten kann...
Baldurs Gate oder von mir auch Witcher 4 etc. das wäre wirklich traumhaft mit Headset in die Interaktion zu gehen.
 
Star Citizen NPC derweilen in T Pose auf dem Stuhl... Ja läuft mit der AI 😉 Achtung kann Spuren von schwarzem Humor enthalten.
 
Ja aber typisch KI ...
User: Wer feuert am schnellsten?
KI: Der Falcon ist wegen seiner Form am schnellsten.

Das wurd aber nicht gefragt. Sowas nervt halt auf Dauer, wenn man viel mit KI macht.
 
flynn9 schrieb:
User: Wer feuert am schnellsten?
KI: Der Falcon ist wegen seiner Form am schnellsten.
Hm, ich hab da tatsächlich "flies" verstanden, nur halt mit nicht-britischer Aussprache. Die YouTube-Untertitel des Video wiederum schreiben "fights". ^^
 
raPid-81 schrieb:
..., aber hey, hauptsache man kann Nvidia bashen, gell? :rolleyes:

Wer nicht spätestens jede 2. Gen aufrüstet kann, konnte, und wird wohl, nie alle Features der neuesten Spiele nutzen.
Schön dass Du/ihr diese Firmenpolitik mit eurem Konsum unterstützt und somit den technischen Fortschritt voran treibt. Danke :daumen:
 
Vitche schrieb:
Hm, ich hab da tatsächlich "flies" verstanden, nur halt mit nicht-britischer Aussprache. Die YouTube-Untertitel des Video wiederum schreiben "fights". ^^
Oh, vllt verhört. Danke für deinen Input
 
Krik schrieb:
Ach iwo. Ob die Spielehersteller ACE überhaupt in der Breite einsetzen wollen, steht noch in den Sternen. Und man will auch nicht nur für Highend-Systeme entwickeln, da die große Masse diese Hardware einfach nicht hat.
Nvidia macht es einfach so wie sie es damals mi PhysX taten: Mit "guten Argumenten" (💰) die AAA-$pieleschmieden zur Zusammenarbeit überzeugen.
Und für all diejenigen, deren Grakas dafür ungeeignet sind, gibt es dann den gleichen Fallback wie damals bei PhysX: Läuft auf der CPU auf einen einzigen Thread beschränkt und die evtl. vorhandene NPU wird natürlich ignoriert.

Und genau wie PhysX wird auch ACE nach ein paar Jahren in Vergessenheit geraten, weil sich dann die nichtproprietäre Alternativen durchgesetzt haben.
 
  • Gefällt mir
Reaktionen: SweetOhm, masterw und jonderson
Zurück
Oben