Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia Reflex (Analyzer) im Test: Der Latenz auf der Spur
- Ersteller Jan
- Erstellt am
- Zum Test: Nvidia Reflex (Analyzer) im Test: Der Latenz auf der Spur
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.758
du wärst schicherlich total uber!NighteeeeeY schrieb:WIE VIEL BESSER ICH SEIN KÖNNTE WÜRDE ICH DOCH BLOSS DIE PASSENDE GAMING HARDWARE KAUFEN
spaß beiseite; die größte latenz (mit abstand) sitzt noch vor der ganzen hardware - ich finde es immer wieder belustigend wenn hier und da mal so ein übermensch-kandidat auftaucht und steif und fest behauptet er könne den unterschied zw abc und xyz sehen/spüren..und dann schaut man sich an was einem im studium so zu biochemie, biomechanik, wahrnehmungsschwellen etc. beigebracht wird und kann über solche typen nur noch einwenig mitleidig lachen..
was lernen wir daraus: das marketing "der großen und kleinen zahlen" funktioniert; es setzt leuten aber auch so manchen unsinn in den kopf. mich erinnert es immer an die diskussionen zu lautsprechern und köpfhörern mit leuten welche (sich wenigstens die mühe gemacht haben) die datenblätter zu vergleichen, aber leider die angaben dort nicht einzuordnen wissen: bei denen ist ein kopfhörer dessen frequenzbereich vermeintlich bis 40khz geht natürlich besser als einer der "nur" bis 32khz reicht - dass sie bei beiden in diesen frequenzbereichen nichtmal annähernd was hören ist dann zweitranging - die zahl ist größer..
C
CrunchTheNumber
Gast
Letztendlich ein geschickter Marketing-Schachzug von Nvidia. Wenn die Werte aus der Grafik im Artikel stimmen, dann lohnt es sich scheinbar am meisten, mehr Geld in die Grafikkarte zu stecken, um die Gesamt-Latenz zu verringern...Je schwächer die GPU, desto länger ist diese Schlange potenziell – und desto älter sind die in den Bildern enthaltenen Eingaben des Nutzers beim Rendern.
Und was willst du dann machen? Ein Praxiskit oder eine Neuromod installieren?wern001 schrieb:kann man damit auch die Latenz vom menschen messen hab da irgendwie nichts gefunden.
Gruß,
CTN
@Highspeed Opi
"So etwas ist kein Placebo."
Und trotzdem ist Placebo dabei. Hättet du den kurzen Satz auch so gelesen wie er da steht, hättest du es wohl auch gleich verstanden wie es gemeint war.
(Und eure Diskussion wie sehr Hardware da hilft/nicht hilft, interesiert mich null, die habe ich gar nicht verfolgt.)
"So etwas ist kein Placebo."
Und trotzdem ist Placebo dabei. Hättet du den kurzen Satz auch so gelesen wie er da steht, hättest du es wohl auch gleich verstanden wie es gemeint war.
(Und eure Diskussion wie sehr Hardware da hilft/nicht hilft, interesiert mich null, die habe ich gar nicht verfolgt.)
AtotheX schrieb:Man kann Nvidea mögen oder nicht und Nvidea Reflex für sinnvoll erachten oder nicht, aber man muss objektiv eingestehen, dass es immer wieder Nvidea ist, die in ihren Bereich technologietreibend sind.
Würde ich nicht sagen. AMD haben desöfteren (GPU betreffende) Technologien erfunden und etabliert, Nvidia haben aber das bessere Marketing, daher nimmt man es vielleicht so wahr.
wern001
Admiral
- Registriert
- Mai 2017
- Beiträge
- 7.452
CrunchTheNumber schrieb:Und was willst du dann machen? Ein Praxiskit oder eine Neuromod installieren?
Gar nichts. Aber ein guter beweiß dafür das ein Großteil dieser Werte für den Popo sind, weil der Mensch einfach zu langsam ist.
Zuletzt bearbeitet:
Biedermeyer
Commander
- Registriert
- Apr. 2005
- Beiträge
- 2.392
Ich glaube Nvidia inzwischen kein Wort mehr und traue im Gegenzug denen alles zu .Jan schrieb:Nvidia stellt die Systemlatenz in Spielen, also die Verzögerung zwischen Befehlseingabe und Bildausgabe, in den Fokus
Die machen nichts ohne Berechnung und versuchte Beeinflussung, bin da lieber uebervorsichtig.
nach Raytracing & co - jetzt: Systemlatenz
Vermutl haben die herausbekommen, dass deren Produkte gerade in dieser speziellen Sparte besser als die Konkurrenz im Kuchendiagramm da steht -> Marketing Feuer frei!
Dazu muss ich fairerweise sagen, dass ich mit deren Produkten immer zufrieden war.
Trotzdem (Contra)! *g
Zuletzt bearbeitet:
padd
Lt. Junior Grade
- Registriert
- Jan. 2006
- Beiträge
- 335
Da Nvidia bekannte E-Sports-Mäuse und deren Latenz per Datenbank in die Systemlatenz mit einfließen lassen will, dürften die meisten Spieler die „Gesamtlatenz“ auch ohne Reflex-Maus treffsicher abbilden können.
Ist die Datenbank öffentlich? Bzw. gibt es Ranglisten der Mauslatenzen? Würde gerne wissen wo die G Pro gegen die schnellsten kabelgebundenen Mäusen steht.
Baal Netbeck
Fleet Admiral
- Registriert
- Apr. 2008
- Beiträge
- 12.348
Ich denke nicht, dass es da einen Unterschied gibt.Tobias123 schrieb:Was bedeutet eine ms weniger Latenz in Mehrverbrauch in Watt?
Die CPU muss weiterhin die gleiche Arbeit machen...die GPU ebenso.
Es wird nur verbessert, dass Maus/(astatur?) später abgefragt werden um aktueller Infos zu benutzen...und dass die Warteschlange an Drawcalls trotz GPU limit auf 1 gezwungen wird.
Durch ungleichmäßigere Frametimes kann es theoretisch zu etwas schlechteren FPS kommen...das würde sogar den Verbrauch senken.
Wozu braucht der Heimanwender diese Information und warum muss er was "extra" optimieren. Ich erwarte, dass die NVidia Treiber, sofern sie diese Möglichkeiten haben, dies automatisch tun sollten (selbiges erwarte ich von AMD).
Ich biete schon mal den Hochschulkurs LowLatency Shader und Treiber selbst kompilieren und signieren für Gamerkids an.
Die Hersteller und Entwickler sollen gefälligst ihre Hausaufgaben machen. Das Entwickler solch Tools begrüßen oder eh schon haben macht Sinn. Aber warum soll ich als Endkunde, nur ein Cent mehr investieren um zu sehen, wie die Latenz ist? Um mich zu ärgern/freuen?
Theoretisch sollte ich daran eh nichts ändern müssen, weil die Kette Hardware Treiber Software schon automatisch das Optimum wählen sollte. Wollen wir wieder in die Steinzeit zurück, wo ich extra FIFO Treiber installiert, Netzwerkframes manuell eingestellt etc. pp habe.
Ich muss mein System nicht Überwachen damit es schnell läuft, geschweige stabil. Das kann ja gern im Hintergrund passieren. Wenn ich gerade zwei Spielern einen Headshot verpasse, ist es mir s*egal ob meine CPU dabei gerade 65 Grad heiß war und meine Maus 12ms Latenz hatte(sorry waren beim nochmaligen Hinschauen 11ms). Die ich eh nicht ändern kann, außer ich kaufe mir ne andere Maus und das soll dann eben dort in den Specs stehen.
Am Ende ist die Internetanbindung vermutlich bei fast jedem der Maßgebliche Einfluss. Also, können wir gerne zu dem Thema zurückkehren, wenn wir alle FTTH haben oder gepflegt bei einer LAN-Session sitzen (letzteres natürlich per Fiber, da dort die Pakete eine messbar niedrigere Latenz haben).
PS Die größte Latenz sitzt vor dem Rechner
Ich biete schon mal den Hochschulkurs LowLatency Shader und Treiber selbst kompilieren und signieren für Gamerkids an.
Die Hersteller und Entwickler sollen gefälligst ihre Hausaufgaben machen. Das Entwickler solch Tools begrüßen oder eh schon haben macht Sinn. Aber warum soll ich als Endkunde, nur ein Cent mehr investieren um zu sehen, wie die Latenz ist? Um mich zu ärgern/freuen?
Theoretisch sollte ich daran eh nichts ändern müssen, weil die Kette Hardware Treiber Software schon automatisch das Optimum wählen sollte. Wollen wir wieder in die Steinzeit zurück, wo ich extra FIFO Treiber installiert, Netzwerkframes manuell eingestellt etc. pp habe.
Ich muss mein System nicht Überwachen damit es schnell läuft, geschweige stabil. Das kann ja gern im Hintergrund passieren. Wenn ich gerade zwei Spielern einen Headshot verpasse, ist es mir s*egal ob meine CPU dabei gerade 65 Grad heiß war und meine Maus 12ms Latenz hatte(sorry waren beim nochmaligen Hinschauen 11ms). Die ich eh nicht ändern kann, außer ich kaufe mir ne andere Maus und das soll dann eben dort in den Specs stehen.
Am Ende ist die Internetanbindung vermutlich bei fast jedem der Maßgebliche Einfluss. Also, können wir gerne zu dem Thema zurückkehren, wenn wir alle FTTH haben oder gepflegt bei einer LAN-Session sitzen (letzteres natürlich per Fiber, da dort die Pakete eine messbar niedrigere Latenz haben).
PS Die größte Latenz sitzt vor dem Rechner
Zuletzt bearbeitet:
B
B3nutzer
Gast
Die Diskussionen sind manchmal schon lustig.
Klar hat der Mensch 150-250 ms Reaktionszeit.
Aber Wenn das der Maßstab wäre, müsste man Bilder auch nur mit 150ms Abstand darstellen.
Ein 150ms Takt entspricht jedoch gerade einmal 6,6 FPS.
Sehen wir also nicht mehr als 6 FPS? Warum sehe ich dann den Unterschied zwischen 100 und 200 FPS??
Wie man sieht, alles totaler Unsinn.
Der Punkt ist, dass unser Gehirn und unsere Nerven auch eine Latenz haben, bis es zu einer sichtbaren Reaktion der Muskeln kommt dauert es sowieso ewig (>150ms)
Aber auch wenn die Informationen verspätet am Gehirn ankommen, muss das ja nicht heißen, dass man deswegen nicht merken würde, wenn Mausbewegung und Displayausgabe um 50 ms versetzt sind.
Man verarbeitet zwar die beiden Informationen verzögert, aber das Delta kann man ja trotzdem ausmachen. Das eine hat einfach mit dem andere nix zu tun. Ein Monitor kann ja auch z.B. nen Lag von übertrieben gesagt einer Sekunde haben und trotzdem könnte man damit 200 FPS bzw. 200 Hz perfekt flüssig darstellen. Man hat halt eine Sekunde Verzögerung, was nicht heißt, dass die Frames 1 Sekunde abstand haben müssen. Analog eben die Verarbeitung im Gehirn. Verzögert heißt NICHT Langsam!
Ansonsten bezüglich Vergleich mit AMD.
Eigentlich auch unsinn, weil Relfex als SDK bei der Engine ansetzt und die Render-Warteschlange möglichst komplett leer hält.
Sowas ist normalerweise nicht vorgesehen. Man nutzt üblicherweise immer ein prerendering von 1 oder mehr Frames, um die Framerate zu maximieren. Mit dem Nvidia SDK werden CPU und GPU eben so abgestimmt, dass sie sich quasi just in Time die "Frames" schicken. Wenn das nicht perfekt funktioniert, dann leidet die Performance. So "einfach" ist es also auch nicht.
AMD Kann da in Punkto Latenz aber auch gar nicht rankommen, weil Nvidia das mit dem Ultra Low Latency Modus im Treiber auch schon genauso versucht hat. Man kann über den Treiber vermutlich über DirectX wohl etwas tricksen, was aber nicht immer gut funktioniert, wie Nvidia selbst schreibt. Deswegen ist der Weg über die Anpassung der Spieleengine, wie es Nvidia mit dem Reflex SDK anbietet eben der beste weg.
Solange AMD also nix vergleichbares macht, kann AMD nicht das selbe Ergebnis erreichen.
Die Frage die sich stellt ist: Kann Nvidia das SDK auch für AMD öffnen?
Könnte wohl schwieriger sein, wenn das SDK auf dem Nvidia Treiber aufbaut. Denn Reflex funktioniert auch erst ab einer bestimmten Treiberversion, obwohl es "nur" vom Entwickler ins Spiel integriert wird.
Solange es diese Abhängigkeit gibt, kann mal wohl schlecht mal eben das ganze für AMD freigeben, da es wohl einfach nicht funktionieren würde, wenn Nvidia nicht mit AMD zusammenarbeitet. Der AMD Treiber müsste praktisch das Nvidia Reflex SDK unterstützen und entsprechend darauf angepasst/optimiert sein.
Man kann nur hoffen, dass die Entwickler künftig sensibler für das Thema werden und bereits selbst die Engine in der Hinsicht optimieren. Division 2 bietet ja z.B. auch einen Low Latency Modus an. Und das spürt man sehr deutlich.
Klar hat der Mensch 150-250 ms Reaktionszeit.
Aber Wenn das der Maßstab wäre, müsste man Bilder auch nur mit 150ms Abstand darstellen.
Ein 150ms Takt entspricht jedoch gerade einmal 6,6 FPS.
Sehen wir also nicht mehr als 6 FPS? Warum sehe ich dann den Unterschied zwischen 100 und 200 FPS??
Wie man sieht, alles totaler Unsinn.
Der Punkt ist, dass unser Gehirn und unsere Nerven auch eine Latenz haben, bis es zu einer sichtbaren Reaktion der Muskeln kommt dauert es sowieso ewig (>150ms)
Aber auch wenn die Informationen verspätet am Gehirn ankommen, muss das ja nicht heißen, dass man deswegen nicht merken würde, wenn Mausbewegung und Displayausgabe um 50 ms versetzt sind.
Man verarbeitet zwar die beiden Informationen verzögert, aber das Delta kann man ja trotzdem ausmachen. Das eine hat einfach mit dem andere nix zu tun. Ein Monitor kann ja auch z.B. nen Lag von übertrieben gesagt einer Sekunde haben und trotzdem könnte man damit 200 FPS bzw. 200 Hz perfekt flüssig darstellen. Man hat halt eine Sekunde Verzögerung, was nicht heißt, dass die Frames 1 Sekunde abstand haben müssen. Analog eben die Verarbeitung im Gehirn. Verzögert heißt NICHT Langsam!
Ansonsten bezüglich Vergleich mit AMD.
Eigentlich auch unsinn, weil Relfex als SDK bei der Engine ansetzt und die Render-Warteschlange möglichst komplett leer hält.
Sowas ist normalerweise nicht vorgesehen. Man nutzt üblicherweise immer ein prerendering von 1 oder mehr Frames, um die Framerate zu maximieren. Mit dem Nvidia SDK werden CPU und GPU eben so abgestimmt, dass sie sich quasi just in Time die "Frames" schicken. Wenn das nicht perfekt funktioniert, dann leidet die Performance. So "einfach" ist es also auch nicht.
AMD Kann da in Punkto Latenz aber auch gar nicht rankommen, weil Nvidia das mit dem Ultra Low Latency Modus im Treiber auch schon genauso versucht hat. Man kann über den Treiber vermutlich über DirectX wohl etwas tricksen, was aber nicht immer gut funktioniert, wie Nvidia selbst schreibt. Deswegen ist der Weg über die Anpassung der Spieleengine, wie es Nvidia mit dem Reflex SDK anbietet eben der beste weg.
Solange AMD also nix vergleichbares macht, kann AMD nicht das selbe Ergebnis erreichen.
Die Frage die sich stellt ist: Kann Nvidia das SDK auch für AMD öffnen?
Könnte wohl schwieriger sein, wenn das SDK auf dem Nvidia Treiber aufbaut. Denn Reflex funktioniert auch erst ab einer bestimmten Treiberversion, obwohl es "nur" vom Entwickler ins Spiel integriert wird.
Solange es diese Abhängigkeit gibt, kann mal wohl schlecht mal eben das ganze für AMD freigeben, da es wohl einfach nicht funktionieren würde, wenn Nvidia nicht mit AMD zusammenarbeitet. Der AMD Treiber müsste praktisch das Nvidia Reflex SDK unterstützen und entsprechend darauf angepasst/optimiert sein.
Man kann nur hoffen, dass die Entwickler künftig sensibler für das Thema werden und bereits selbst die Engine in der Hinsicht optimieren. Division 2 bietet ja z.B. auch einen Low Latency Modus an. Und das spürt man sehr deutlich.
Zuletzt bearbeitet von einem Moderator:
Baal Netbeck
Fleet Admiral
- Registriert
- Apr. 2008
- Beiträge
- 12.348
Spawn182 schrieb:Wozu braucht der Heimanwender diese Information und warum muss er was "extra" optimieren. Ich erwarte, dass die NVidia Treiber, sofern sie diese Möglichkeiten haben, dies automatisch tun sollten (selbiges erwarte ich von AMD).
Spawn182 schrieb:Theoretisch sollte ich daran eh nichts ändern können, weil die Kette Hardware Treiber Software schon automatisch das Optimum wählen sollte.
Weil die Welt nicht perfekt ist....Hardware und Treiber sind nicht perfekt.....die unendlich vielen Kombinationsmöglichkeiten von Software und Hardware können unmöglich alle von den Herstellern berücksichtigt werden.
Und Leute wollen auch unterschiedliche Dinge!
Immer optimale Latenz klingt erstmal super, aber wer kann jetzt schon sagen, ob das nicht je nach Spiel auch ruckeliger wird....oder andere Nachteile hat.
Guckt man z.B. das Battlenonsense Video von Seite 1 an, dann sieht man das die Anti-Lag Funktion im CPU Limit teils einen minimal höheren Input Lag macht.
So gut wie alles im Leben hat Vor- und Nachteile.....daher ist es wichtig, dass man als Nutzer die Wahl hat um auf seine eigene Situation und eigene Wünsche einzugehen.
Wenn es sich für fast alle Situationen als besser herausstellt, kann ich mir gut vorstellen, dass es zur Standardeinstellung wird, oder zumindest in optimierungsguides empfohlen wird.
Niemand zwingt dich, dir diese Dinge anzeigen zu lassen.Spawn182 schrieb:Ich muss mein System nicht Überwachen damit es schnell läuft, geschweige stabil. Das kann ja gern im Hintergrund passieren. Wenn ich gerade zwei Spielern einen Headshot verpasse, ist es mir s*egal ob meine CPU dabei gerade 65 Grad heiß war und meine Maus 12ms Latenz hatte
Aber Andere haben eventuell Probleme mit ihrem PC oder sind unzufrieden mit ihren FPS/Frametimes oder dem Input Lag....
Die Möglichkeit diese Dinge zu kontrollieren und damit Probleme zu erkennen, oder wie hier zu überprüfen ob der Input Lag nur gefühlt, oder wirklich schlecht ist...keine Ahnung was dich daran stört??
Tellerrand und so.
cruse
Fleet Admiral
- Registriert
- Sep. 2013
- Beiträge
- 13.855
Gleich mal bei der DIN anrufen.Herdware schrieb:Das wäre wie ein Standard für die Befestigung von Fuchsschwänzen an Autoantennen.
Weil das, wie viele DX12(+Vulkan)-Sachen, vom Hersteller des Spiels abhängig ist und nicht vom Grafikkarten/Treiberhersteller.Deisi schrieb:Der Ultra Low Latency Modus über den Treiber funktioniert ja nicht unter DX12 und Vulkan. Warum gibt es bei eurer Messung unterschiede?
Korrektur: weil DU zu langsam bist.wern001 schrieb:Gar nichts. Aber ein gute beweiß dafür das ein großteil dieser Werte für den Popo sind, weil der Mensch einfach zu langsam ist.
Ein trainierter Spieler kommt immer auf 180-230ms zu fast jedem Zeitpunkt.
Ich hab das bei mir schon zich mal nachgemessen(schon seit Jahren) und ich komme immer auf den Wert von rund 210ms, selten drunter. Andere machen das auch und kommen drunter und wieder andere, wie z.b. der oft erwähnte shroud, aber auch zich andere kommen auf 150ms und drunter!
"inhuman reactions"
Und die Gesamtlatenz muss man IMMER auf deine Reaktionszeit draufrechnen. Das kann schon zwischen Sieg und Niederlage entscheiden. Es entscheidet nicht deine GANZE Reaktionszeit, sondern oft nur ein Bruchteil dessen.
Und schon ist es nicht mehr "für den Popo".
Übung macht den Meister! - und das gilt nunmal auch für die Reaktionszeit, die bisher mit dem Alter kaum nachlässt, solange sie trainiert wird und man im Fokus bleiben kann.
Ich habe die Reaktionszeit übrigens auch bei anderen gemessen und es ist schon erschreckend welch gravierende Unterschiede es da gibt. Und die Testpersonen waren alle durch die Bank weg "Gamer".
Ich möchte nicht wissen, wie die Reaktionszeit bei mit Gaming komplett unbefleckten ist.
In der Fahrschule gilt ja 1sec... ich glaub einige sind da sogar drüber.
@Topic ich werde mir bestimmt einen von den 360Hz Modellen gönnen. Irgendwann nächstes Jahr mal.
Zuletzt bearbeitet:
Trotzdem sollte man sich überlegen, ob man immer gleich bei neuen Technologien von nVidia aufspringt oder nicht lieber wartet, bis herstellerunabhängige Alternativen gibt. Bei nVidia bindet man sich sonst schnell mal auf längere Zeit an den einen Hersteller, weil die gekaufte Peripherie nur damit voll funktioniert.AtotheX schrieb:Man kann Nvidea mögen oder nicht und Nvidea Reflex für sinnvoll erachten oder nicht, aber man muss objektiv eingestehen, dass es immer wieder Nvidea ist, die in ihren Bereich technologietreibend sind.
Im Endeffekt macht nVidia wieder mal das Gleiche wie mit G-Sync, den Wechsel zur Konkurrenz möglichst erschweren/verteuern, weil man dann die ganze teure Peripherie mit tauschen müsste. Gibt ja Einige, die noch nichtmal dann zu einer Radeon greifen würden, wenn die bessere als ne GeForce sind, einfach weil sie für teuer Geld einen G-Sync Monitor gekauft haben.Nikon71 schrieb:Und wieder ein proprietäre Geschichte ... G-Sync, PhysX, Mantle etc. .... Gähn ... Langweilig
Bitte ein offenen Standard etablieren ... dann können wir weiterreden.
In jüngster Vergangenheit wär da zum Beispiel die Low-Level API "Mantle" von AMD zu nennen, woraus letztendlich Vulkan entstanden ist und als Reaktion darauf DirectX 12 kam. Hat in Spielen, die das gescheit nutzen auch zu besserer Perfomance geführt. Auch beteiligt sich AMD recht stark an der herstellerunabhängigen Alternative zu G-Sync, woraufhin nVidia irgendwann auch FreeSync-Support umgesetzt hat.Sanjuro schrieb:Würde ich nicht sagen. AMD haben desöfteren (GPU betreffende) Technologien erfunden und etabliert, Nvidia haben aber das bessere Marketing, daher nimmt man es vielleicht so wahr.
Zuletzt bearbeitet:
cruse
Fleet Admiral
- Registriert
- Sep. 2013
- Beiträge
- 13.855
jo ich z.b., aber aktuell sind sie es nicht und wegen 150€ unterschied lohnt es sich auch nicht.mibbio schrieb:Gibt ja Einige, die noch nichtmal dann zu einer Radeon greifen würden, wenn die bessere als ne GeForce sind, einfach weil sie für teuer Geld einen G-Sync Monitor gekauft haben.
@Justin's hm, woran machst du das jetzt fest?
Das wichtigste Kriterium wäre auch nicht unbedingt das Senken, sondern die einfache Möglichkeit der Messung.
Denn erst damit landen wir im objektivem Bereich und können die Auswirkungen von Versuchen direkt beobachten, anstatt nur zu vermuten und zu rätseln.
Ich sehe darin ehrlich gesagt keinen großen Nutzen, außer dass Nvidia begründen kann, warum Produkte XY nochmal.ein paar hundert Euro mehr kostet.
Ja, es kann bei der Suche nach dem Bottleneck helfen, aber ich habe das Gefühl, dass man das auch anders herausfinden kann. Ram Auslastung, CPU/GPU Auslastung, da wird sich schon was finden.
Nur für die Engine Entwickler könnte es peinlich werden -oder ruhmreich
Ja, es kann bei der Suche nach dem Bottleneck helfen, aber ich habe das Gefühl, dass man das auch anders herausfinden kann. Ram Auslastung, CPU/GPU Auslastung, da wird sich schon was finden.
Nur für die Engine Entwickler könnte es peinlich werden -oder ruhmreich
Ähnliche Themen
- Antworten
- 113
- Aufrufe
- 8.636
- Antworten
- 108
- Aufrufe
- 9.688
- Antworten
- 6
- Aufrufe
- 816
- Antworten
- 121
- Aufrufe
- 17.185
- Antworten
- 193
- Aufrufe
- 20.472