Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRadeon RX Vega: AMDs neue Grafikkarte für Spieler erscheint Ende Juli
Hab' ich doch.
Ich habe auf diesem Berechnungslink weiter oben einfach mal die GTX1060 6GB eingegeben. Dort stand dann was von 700$ irgendwas über's Jahr gerechnet und bei der RX580 600$ paar Zerquetschte über's Jahr.
Also ein guter Hunni p/a.
Welche GPU sich da jetzt für welche Coins eignet und ob die dann überhaupt gewünscht sind, stand da nicht.
Ist mir auch wumpe.
VEGA: Nunja, unter diesem Gesichtspunkt fände ich es für Spieler besser, wenn sich diese weniger für's Mining eignen würden.
Wir werden sehen.
warum sollten Sie es bereuen? Sie sind bis heute die einzigen, die die selbe Range anbieten können wie G-Sync und kein anderer Monitor (IPS) mit Freesnyc kommt bisher so tief runter wie der Eizo. Zugegebenermaßen ist die Lücke nicht sonderlich groß, aber im Bereich IPS ist der eizo mit der Snyc Range einzigartig. Kein anderer komm gleichzeitig so hoch und tief wie er. Überhaupt auch abseits von IPS gibt's soweit ich weiß nur 3 weitere Monitore, die eine ähnliche Spannbreite haben.....
Aber gut, deine Aussagen zu Nvidia und AMD sind ja auch nicht wesentlich gehaltvoller was die Faktenlage und deren Interpretation angeht...
Ich hatte selber einen Acer 27" mit IPS WQHD und 40-144Hz ohne das LFC zu berücksichtigen... würde empfehlen den Wissensstand zu erneuern. Es gibt auch von Eizo ein IPS Modell mit 40-144 Hz ohne geteilte Range und mit LFC ..
Es wird halt gerne unterschlagen, dass auch neue Produkte auf den Markt gekommen sind nur damit G-Sync besser dasteht.
Deine Aussage ist wesentlich polarisierender als meine und rückt den Freesync Support in ein schlechtes Licht. Vorallem dass der Eizo mit der geteilten Frequenz der einzige IPS Monitor mit einer großen Freesync Range sein soll, das ist schlicht ein uralter Wissensstand der gerne gegen Freesync verwendet wird.
Tja, der Eizo geht aber bei 35 los nicht 40. Ich habe bei Geizhals die entsprechenden Filter gesetzt, es gibt exakt 4 Monitore mit 35-144 oder größer. Das ist ein Fakt. 40-144 ist kleiner, wenn auch unwesentlich, aber darauf habe ich explizit hingewiesen. Das ist aktueller Stand und du kannst gern den Gegenbeweis antreten. Zudem ging es mir weder um Gsync oder Freesny csondern darum, dass du meintest, Eizo müsse sich schämen diesen Monitor verffentlicht zu haben. Und das ist schlicht und ergreifend völliger Blödsinn.
Und extra für dich nochmal: Ich wollte AMD HArdware haben, deswegen habe ich ne Menge Öcken in einen entsprechenden Monitor investiert. Ganz offensichtlich ist mir Freesync ausreichend gewesen sonst hätte ich wohl kaum diesen Monitor gekauft. Gehen musste er nur deshalb schweren Herzens weil AMD einfach zu lange braucht entsprechende Grafikpower zu liefern. Ich habe schlicht keine Lust mehr auf Vega zu warten und ggf. noch ne unangenehme Überraschung in Bezug auf die LEistung und/oder den tatsächlichen Termin eines kaufbaren Produktes zu haben.
Sind wir ehrlich..
AMDs Image war noch nie so prall..
@ Unnu:
Die 1060 ist ungeeignet fürs Mining Das passiert eben wenn man den HPC Kram herausstreicht. Klingt hart, ist aber Realität...
Öhm, naja VOR Bulldozer war das eigentlich recht anständig. Und noch (ok, VIEL weiter) davor, haben sie mit intel den Boden gewischt. Besser, günstiger weitaus höheres Übertaktungspotential ... und ich kann mich noch an Firmen erinner in denen bis zu 80% der Server Opterons waren. Scheiß' die Wand an, bin ich alt geworden.
Aha, na toll.
nVidia streicht ein Feature, damit man noch mehr aus den Usern rausquetschen kann und dann kauft alle (Mining)-Welt wie blöd AMD Midrange, weil man da fett Kohle machen kann und die Gamer sind die Dummen.
Wenn ich's nicht besser wüsste, dann würde ich da ja glatt eine Verschwörung von nVidia gegen AMD wittern
Nvidia ist in Sachen Leistung und Energieeffiziens AMD immer ca. 1 Jahr voraus. Bei CPU´s gab es von AMD Jahrelang nix, und ein 8 Kerner bringt einem als reiner Gamer derzeit nicht soviel mehr Leistung, dass es sich nicht lohnt derzeit 1000€ für ein neues System auszugeben wenn man einen guten 4 Kerner hat.
Na das Problem sind eben genau diese Fanboys die den Leuten wo ein Neukauf ansteht einreden AMD wäre so schlecht, solche Schlaumeier gibt es auch jetzt hier im Forum, die trollen in so einigen Kaufberatungen hier und schreiben so einen Bullshit wie "der i5 7400 ist viel schneller als der R5 1600, kauf auf gar keinen Fall den AMD Schrott, Intel ist eh viel besser".
Genauso wie damals mit Thermi, wurde auch zuhauf gekauft obwohl AMD besser war, genauso bei der R9 290(X) vs GTX 780 (Ti).
AMD hatte es bereits so oft verdient mal mehr abzusetzen, dennoch sorgen solche Trolle sogar hier dafür dass die (zu den Zeitpunkten) schlechtere Konkurrenz gekauft wird.
Diese Trolle kapieren aber nicht dass es nichts bringt wenn man immer die Konkurrenz kauft, wenn AMD rumkrebst wie bei den CPUs in den letzten Jahren oder den GPUs in den letzten 3 Jahren dann sieht man wo das hinführt: kein Fortschritt (CPUs) oder exorbitante Preise (GPUs). Daran sind aber nicht mal unbedingt Intel und Nvidia schuld, die wollen ja auch nur möglichst viel Geld für wenig Aufwand verdienen sondern die Kunden die nicht bei AMD kaufen wenn diese besser sind.
Thermi war halt auch schneller und recht schnell danach kam der Vollausbau. Auderdem war Thermi quasi der Computing Chip während AMD damals noch eine sehr unflexible Architektur hatte.
Thermi wird gern schlechter gemacht als er war. Imho war die Karte dennoch die schnellste am Markt.
In Game braucht selbst Thermi ne ganze Ecke weniger als zb die hochdekorierte GTX 980 Ti
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/3/
Im Prinzip war es damals etwas andersrum. Nvidia hatte GPU Computing für sich entdeckt und dem Chip aufgeblasen, die Fertigung spielte auch nicht ganz mit. Fermi war ordendlich überzüchtet, die 5D Shader der AMD Serie bei Gaming und Bitcoin Mining deutlich effizienter. Jetzt haut NVidia 2 Chips raus da beides nicht mehr gut überein zu bringen ist und man es sich leisten kann. AMD versucht beides mit einem Chipdesign zu erschlagen. Auf kleine Kosten der Effizienz.
Joa klar. Hat er "schon immer" geschrieben? Ich denke ihr interpretiert da ein schon immer rein und für ihn ist dieses immer eher auf ein Präsens bezogen, heute und die letzten Jahre.
Er hat das immer leichtfertig verwendet, etwa wie dass Audi immer den Trend bei der Optik von Autos vorgibt - ferne Vergangenheit muss das aber nicht beinhalten
Aber ja, es gab sogar eine sehr lange Zeit als AMD deutlich effizienterer war als NVidia. Aber hauptsächlich zu der Zeit als AMD ihre VLIW Shader hatte die leichtgewichtig und kompakt waren.
Ergänzung ()
immortuos schrieb:
Effizienter ist man seit Maxwell, davor hat es merkwürdiger Weise keine Sau interessiert wie viel eine Karte verbrät.
Ja, das sieht man bspw. an der Datensammelei per GeForce Experience wie kundenfreundlich doch nVidia ist, das wünscht sich der Kunde ganz bestimmt, dass man seine Daten aufzeichnet, Profile erstellt und diese ggfs. weiter verkauft ... so ein Käse .
Ja, nur folgende Aussage fand ich eher überraschend:
Zudem zeichnete sich im Gameplay deutlich Tearing ab - es wurden also nur zum Teil gerenderte Frames ausgegeben, etwas was bei zu geringen, aber auch zu hohen Bildwiederholungsraten geschehen kann.
"Tearing" bei zu hohen Bildwiederholungsraten, wie soll das denn bitteschön funktionieren und wann ist der "zu hohe Bereich" denn erreicht? Das würde ich mit Sicherheit dann nicht mehr "Tearing" nennen.
Irgendwie ist AMDs Kundenkommunikation momentan ziemlich daneben ... man hat wirklich das Gefühl, dass Koduri schwimmen würde, auch wenn die Chips wohl schon länger in der Produktion sind (wen nVidia jetzt anscheinend schon die Lager mit Chips für den späteren Volta Marktstart füllt) und sich an den Spezifikationen nichts mehr ändern wird.
Man könnte somit in Sachen Hardware also nur das PCB anpassen und wieviel Speicher man dem Design mit beiden Stacks zuordnet. Dass der Treiber für ein Spiel des neuen Vorzeige-Partners Bethesda, nämlich Prey, erst noch in der Mache ist, obwohl man ja laut RTG seit Anfang des Jahres (Vorstellung des Engineering Samples von RX Vega) angeblich 80% dort an den Treiberoptimierung werkeln lässt, wirkt auch nicht gerade beruhigend.
Wie zuvor erwähnt, mit der Prey Demo während der AMD Computex Vorstellung hat man sich m.E. überhaupt keinen Gefallen getan, sondern eher das Gegenteil (haufenweise Spekulationen, Negativpresse, usw.).
Autsch. Das wäre dann der GAU.
Andererseits, ... auch die Grünen mussten diese schmerzhafte Erfahrung machen. Und sind seitdem wahre Effizienzwunder.
Wollen wir mal hoffen, dass uns das erspart bleibt.
Ergänzung ()
Und auch @aivazi: Solltet ihr beiden von diesem hier reden: "http://www.prad.de/new/monitore/test/2016/test-eizo-fs2735-teil12.html".
Antwort auf Frage 2: Ja, hier ist es das, denn für den hohen Bereich schaltet man Blur-Reduction ein.
Und was jetzt an einem FreeSynch von 35 bis 90 Hz jetzt nicht ausreicht, ist mir ein Rätsel.
Das kann man mir ggf. erläutern.
ganz Einfach, weil man so den Monitor auch auf 90 Hz stellen könnte, und alles drüber (auch das, wofür man bezahlt) völlig unnütz ist. Denn über 90 fps gibt es dann tearing --> Freesync ist schlicht und ergreifend nicht da. Wozu einen so überteuerten Freesync Monitor kaufen (der noch nicht mal perfekt ist, selbst wenn Eizo drauf steht. AUO's AHVA Panel.), wenn man drauf ac hten muss, dass man unter 90 fps bleibt, und die Range gar nicht nutzen kann?
sorry, seh ich null sinn drin. Da spar ich mir ehrlich gesagt lieber 200€, und nimm das technisch bessere G-Sync. Denn das funktioniert nicht nur IMMER bis 144+ Hz hoch (oder 165, wenn man das Panel so hoch übertaktet), sondern auch bis 0 fps runter. Keine untergrenze vorhanden.
So feindseelig viele gegen G-Sync sind, aber Freesync hat den Nachteil, nicht so scharfe Kriterien erfüllen zu müssen, wie bei G-Sync. so kommen solche Krücken zustande mit xx - 90 Hz freesync range. Und hier gibt's die bessere Technologie für weniger geld.
Warum ICH Freesync / G-Sync wollen würde? Eben damit es EGAL ist, wie viele fps ich hab, und ich mir einfach keine gedanken machen muss. Solange ich unter der max Hz bin.
Unnu schrieb:
Ansonsten lasst euch gesagt sein, dass dieser Monitor der HAMMER ist. Wieso Eizo "bereuen" sollte so ein Granatengerät gebaut zu haben ist wohl Unwissenheit geschuldet.
OK, es ist KEIN Monitor für FPS-Fanatiker und TN-Enthusiasten. Für alle anderen, die gerne Farben statt Bunt haben, oder auch gepflegt Fotos retuschieren, oder überhaupt irgendwas mit Bilder arbeiten, ist dieses Ding eine Offenbarung.
Und hierfür sogar noch günstig. Ausserdem ist es ein EIZO. Noch Fragen?
Du sagst es... Für leute, die Hauptsächlich damit arbeiten. Aber ich seh hier kenien grund auf AMD + Eizo zu setzen, zumindest als Gamer der gerne IPS will. Man bekommt so ein halbgaares Freesync, was nicht nur mit kompromissen funktioniert, das Panel ist - auch wenn Eizo draufsteht - nicht 100% fehlerfrei / Perfekt weil das Panel an sich schon so fehleranfällig ist...
Und man bezahlt 200€ mehr als für G-Sync. Da fährt jeder Gamer mit Nvidia besser, völlig schnuppe wie proprietär das auch sein mag. Es ist deutlich günstiger
Ich bereue z.B. keinen einzigen cent, den ich für G_Sync ausgegeben habe, gegenüber Freesync. selbst, wen nich zum selben preis eine AMD karte bekommen hätte, die die selbe Leistung und mind. genau so viel speicher hätte ^^
Denn bei MEINEN aktuellen Monitor specs gibt es nur einen einzigen Freesync Monitor: https://geizhals.de/?cmp=1482112&cmp=1513909&cmp=1574853
Und der hat nur 144 Hz statt 165 (ok wayne), kein ULMB (auch wayne, da ich es nicht nutze. Aber besser haben als brauchen.
Der größste Schlag ist der Prad test, laut dem trotz eingeschaltetem Freesync weiterhin tearing entsteht (wodurch Freesync einfach mal nonexistent ist).
Mag vermutlich ein treiberbug sein oder sowas in der art. Aber hier müsste man bestellen, und hoffen dass man das problem nicht hat.
naja.. ICH würde den eizo so nicht als Gaming Monitor in erwägung ziehen. Völlig egal wie toll der service ist (den man eh nur bei nem Defekt braucht. Aber wie oft geht schon ein Monitor kaputt?)
Da bekommt man zum selben preis schon nen 10 bit 21:9 Panel mit 100 Hz und G-Sync. Damit also 10 hz mehr als der Eizo (weil der ja nur bis 90 geht mit Freesync). Womit man mit sicherheit wesentlich mehr Freude haben würde...
Aber wie immer... nur meine persönliche Meinung dazu. ^^
Krautmaster schrieb:
Zudem wäre es auch Zeit für Optimierungen, lang is ja nich hin und Prey is ja aktuell eher das Top Game.
Definiere "Top Game"? Hoffe du meinst spielerisch. Was Anforderungen angeht definitiv nicht, Prey läuft auf jeder Kartoffel. easy peasy. ne GTX 1060 schafft hier im schnitt 100-130 fps~. in 1080p und ultra.
Auf ner einzelnen 1080 läuft es in 4k auf 60~ fps. Und mit V-Sync würde das DEUTLICH flüssiger aussehen, als dieses Tearingfest was AMD gezeigt hat.^^
Und btw: Ja, genau so sieht Prey auch aus. Das läuft nur so gut, weil es kein grafik-kracher ist.
AMD-Mafiosi schrieb:
Die 1060 ist ungeeignet fürs Mining Das passiert eben wenn man den HPC Kram herausstreicht. Klingt hart, ist aber Realität... Schau dir an was EINE Quadro kostet und dann rechne mal wie viele RX580/480 du bekommst für eine K40 Schau dir die echte Computingleistung der 1060 an und dann muss man knallhart sagen: das ist ein Trauerspiel für den Preis.
Richtig. Aber das interessiert halt auch nur den Miner, nicht den Gamer. Ich persönlich hab 1000 mal lieber die deutlich bessere Energieeffizienz, als die Computing Leistung. Einfach weil ich letzteres nicht nutze^^
Kommt auf die Person an^^
Mir war Lautheit schon immer wichtig.
Eine Grafikkarte, die laut ist, ist für mich eine komplette fehlkonstruktion. Der chip mag so gut sein wie er will, die Grafikkarte selbst ist Gülle.
Es existiert kein einziger grund, warum ein Desktop PC laut sein muss.
Bei nem mini-itx oder sowas.. klar, kann man iwie verstehen. Oder ne Konsole.
Aber desktop? Inakzeptabel.
Chismon schrieb:
Ja, das sieht man bspw. an der Datensammelei per GeForce Experience wie kundenfreundlich doch nVidia ist, das wünscht sich der Kunde ganz bestimmt, dass man seine Daten aufzeichnet, Profile erstellt und diese ggfs. weiter verkauft ... so ein Käse .
Och, bitte mal den Aluhut absetzen..
Bist du denn auch brav auf Facebook abgemeldet?
Boykokttierst du die Google suche, Bing, und gehst brav in die Bibliothek, wenn du irgend eine Information brauchst? (Denn sorry, mal kurz was googeln und du hinterlässt mehr persönliche Daten, als GeForce experience in nem ganzen tag von dir sammelt)
Nutzt du alte Nokia Handys, statt Smartphones? (denn KEIN smartphone hinterlässt null Daten.)
Was machs du überhaupt online? Egal was du machst, du lässt immer irgendwelche Daten da...
Was anderes als hypocritisch kann man bei dem thema zu keinem user sagen, der mit Datensammelei ankommt.
Chismon schrieb:
"Tearing" bei zu hohen Bildwiederholungsraten, wie soll das denn bitteschön funktionieren und wann ist der "zu hohe Bereich" denn erreicht? Das würde ich mit Sicherheit dann nicht mehr "Tearing" nennen.
Tearing hast du IMMER, wenn die Bildausgabe der grafikkarte nicht synchron zur Bildwiederholrate des Monitors läuft. Punkt.
egal ob du 20 fps hast, 60 fps mit 60 Hz, 130 fps oeder 800 fps.
Du hast hier immer Tearing. Je nach Engine, j enach fps mag es mehr oder weniger sichtbar sein.
Mit GLÜCK ist die bildausgabe + Wiederholrate zufällig gleich, und der "riss" ist genau vor dem ersten Pixel. Aber der Riss wandert schnell wieder irgendwo hin.
Bzw mit sehr vielen fps, mehrere Risse. ^^
Gerade in LoL getestet. 330 fps oder so im Practice tool (Monitor läuft auf 165 Hz).
War total unflüssig. Bildrisse durch 165 Hz natürlich sehr minimal, Tearing ist aber da. Und das merkt man. Da es zwischen den bildern entsprechend auch sprünge gibt. Fühlt sich anders an als Stuttering (doppelte frames mit V-Sync), aber es ist nicht flüssig/smooth.
fps Cap auf 144 ingame, damit mein G-Sync wieder geht, und voila: perfekt smooth.
Von daher ist die Aussage, die du zitiert hast, so vollkommen Korrekt.
Tearing tritt auf, wenn zu wenig, oder zu viele bilder gerendert werden. Ausgehend von einem 60 Hz Monitor können zu viele dann einfach alles über 60 sein. Und zu wenig, alles unter 60.
Ich bin mit meinem ASUS MG279Q der auch freesync kann sehr zufrieden.
Eine Ränge von 35-90hz reicht mir auch, drüber macht ohnehin keinen wirklichen Sinn und drunter auch nicht wirklich...
Und ansonsten, freue ich mich bei dem Monitor über die gute Farbwiedergabe ist auch schon ein etwas älteres Modell neuere mögen besser sein.
Sicher nicht grafisch aber wohl aktuell eines der besten bewerteten und meisten gespielt. ANDROMEDA wäre grafisch besser und fördener gewesen.
@ chismom
Joa genau das wollte ich damit ausdrücken. Ich mag den Raja ja aber aktuell kommts eher so rüber als wüsste er selbst nicht so ganz was er sagen soll ^^
Was meiner Meinung nach nicht funktioniert ist Marketing dass zwei Monate vor Release die Erwartung dermaßen dämpft. Gerade wenn AMD schon diesen Shift nach hinten verkünden muss, dann gilt es doch eine solide Demo zu zeigen die über das Delay hinwegsehen lässt.
Tearing entsteht immer dann, wenn der Bildschirm refresht und die Graka währenddessen ein neues Bild liefert. Also immer dann wenn ein Frame nicht passend zum refresh des Bilschirms passiert.
Beispiel 60 Hertz Monitor: Kein Tearing würde man sehen bei 60 Hertz, 30Hz, 20Hz, etc. pp also einem ganzzahligen Teiler oder Multiplikator. Alles andere erzeugt Tearing unabhängig davon ob es überhalb oder unterhalb des Monitorrefreshes liegt.
Klar wie viele hier schreiben soll das nur Threadripper demonstrieren.Leider bindet AMD Vega nur ziemlich unglücklich ein, man hätte ja auch 2 mal 580 nehmen können für Prey.
Im Vorfeld wurde es wirklich so kommuniziert das man was von Vega auf der Computex zeigen wollte.Irgendwie laufen Präsentationen die mit oder wobei es um Vega geht ziemlich unglücklich ab.Da ist die Frage: Warum zeigt man dann überhaupt etwas oder schürrt Erwartungen bei potentiellen Kunden? Nur damit man am Ende die meisten Leute enttäuscht? Dann lässt man es doch eher bleiben oder?! Ich habe mir einen R7 1800X gekauft und fahre gut damit, da ich in 4K spiele.
Im Vorfeld in Las Vegas hat AMD den Ryzen nur in 4k Games demonstriert um damit die schwäche bei 1080P Games gegen Intel zu kaschieren, genauso wird es sich bei den GPUs verhalten.Präsentiert wird erstmal nur in DirectX 12 lastigen Async Games. Die Test der Fachmagazine werden da eher aufschluss bringen.Ich finde es derzeit echt nicht gut das NVIDIA die Monopolstellung bei High End GPUs hat, aber sie haben ihre Hausaufgaben gemacht, was Marketing und Presentation angeht! NVIDIA kann eher mit dem Preis bei den jetzigen Grafikkarten runtergehen als AMD die auf HBM2 setzen oder sie bringen einfach eine bessere Version und machen damit Vega obsolet.Bevor AMD so ein grosses Risiko eingeht würde ich die derzeitige Vega eher aussetzen und die bisherigen Entwicklungen in Navi einfliessen lassen. Bis dahin ist HBM 2 gut produzierbar,gut verfügbar und um einiges billiger als heute! Dann lieber was konkurrenzfähiges gegen Volta nächstes Jahr auf den Markt bringen,anstatt jetzt mit biegen und brechen eine Vega Gaming Karte auf den Markt zu werfen,welche am Ende floppt.Damit tut man sich selbst keinen gefallen.
Och, bitte mal den Aluhut absetzen..
Bist du denn auch brav auf Facebook abgemeldet?
Boykokttierst du die Google suche, Bing, und gehst brav in die Bibliothek, wenn du irgend eine Information brauchst? (Denn sorry, mal kurz was googeln und du hinterlässt mehr persönliche Daten, als GeForce experience in nem ganzen tag von dir sammelt)
Nutzt du alte Nokia Handys, statt Smartphones? (denn KEIN smartphone hinterlässt null Daten.)
Was machs du überhaupt online? Egal was du machst, du lässt immer irgendwelche Daten da...
Was anderes als hypocritisch kann man bei dem thema zu keinem user sagen, der mit Datensammelei ankommt.
Genau das ist die falsche Art da ran zu gehen. Nur weil man schon Daten hinterlassen hat muss man doch nicht sagen dass es eh schon egal ist. Oder machst du das sonst auch überall so? Das ist genauso dumm wie die Argumentation mit dem Strom, nur weil man sowieso Strom verbraucht ist einem doch nicht egal wie viel man verbraucht? So nach dem Motto: "Ach ich brauch doch eh Strom für das Haus, da kann ich doch auch gleich alle Lampen 24/7 brennen lassen, der Verbrauch ist doch eh vernachlässigbar. Ach ja und das Auto lasse ich in der Garage natürlich auch laufen, der Verbrauch im Stand ist ja gegenüber meinen Fahrten eh vernachlässigbar."
Das ist doch einfach nur Blödsinn.
@immortuos: Erstmal sammelt nicht der Treiber die Daten, sondern GeForce Experience, bzw. eine Telemetriesammelkomponente. Im Gegesatz zu den Chef-Datensammlern im Internet (Google, Facebook usw.) kannst du das hier abschalten indem du GeForce Experience deinstallierst und den Telemetriedienst stoppst.
Zudem frage ich mich woher die Information kommt die Chismon anscheinend hat, dass nVidia
Daten aufzeichnet, Profile erstellt und diese ggfs. weiter verkauft
Kann genauso gut sein, dass sie einfach Absturzabbilder von Spielen und ihrem Treiber aufzeichnen, zusammen mit Hardwarehashes des Restsystems, um ihre Treiberentwicklung zu optimieren, damit ihren Service zu verbessert und damit noch mehr Kunden zu bekommen. Das Problem an dieser Vermutung ist aber leider, dass sie harmlos ist und man keinen Aluhut basteln muss.