News Nvidia: Game-Ready-Treiber in Zukunft nur über GeForce Experience

berkeley schrieb:
Nehmen wir das Beispiel auf 2 Jahre mit 2h pro Tag spielen. Bei einem Verbrauch von ca. 200W und ca. 25 Cent pro kWh wären das stolze 73€ nach 2 Jahren. Bei einem Verbrauch von 250W dann gleich 90€ nach 2 Jahren.
Ich frage mich, wo du da jetzt ganz konkret 50€ sparen willst innerhalb von 2 Jahren.

Mal ganz davon abgesehen, dass bspw. eine 290/390 mittlerweile in fast jedem spiel schneller als eine 970 ist. Genauso bei der 380 vs 960. Ist ja nicht so, dass ich mir keine aktuellen Benchmarks anschaue.

Glückwunsch...damit hättest du die Stromkosten der einen Karte, jetzt fehlen nur noch die der anderen Karte um sie davon abzuziehen denn für einen Vergleich ist nur die Differenz relevant.
Welche sollen es also angesichts deiner Rechnung sein? Die GTX970 und die R9 390? Dann nehmen wir uns mal diesen Test vor: https://www.computerbase.de/2015-06...80-r7-370-test/3/#abschnitt_leistungsaufnahme
Schon schrumpfen die 250W aus deiner Rechnung auf 153W mit dem Referenz- und 129W mit dem OC Modell zusammen und landen bei einem Strompreis von 0,25€ pro kWh bei ca. 50€ für 2 Jahre.


UltraWurst schrieb:
Mal davon abgesehen, daß die Differenz größer als 50W ist, ist die GTX 960 so wie man sie kauft (nämlich OC) so ziemlich genau so schnell wie die R9 380.
(Je nach Spiel schneller/langsamer.)

Naja ... und dann kann man da in aller Regel noch 10-15% mehr Leistung rausholen, bei der 380 meist nur ca. 5%. Habe ziemlich genau 13% mehr Leistung aus der ohnehin schon OCed MSI rausholen können. Da kann keine R9 380 mithalten.

Und mit dem OC sind auch die Stromverbrauchswerte vom Test der Referenz Modelle für die Tonne denn.....oh Wunder....mit dem OC steigt auch der Strom hunger und die Differenz schrumpft.
 
UltraWurst schrieb:
Ich wiederhole mich:
Das Thema wäre wirklich mal sehr interessant und sollte (wie auch die CPU-Last) endlich mal genauer untersucht werden.
Aber scheinbar hat keine Tech-Seite Lust, sich mal wirklich die Mühe zu machen, das auch entsprechend umfangreich zu analysieren. :/
Ich bin der letzte, der sich gegen so etwas ausspricht. Selbstverständlich würde mich das genauso brennend interessieren. Nicht zuletzt, weil man dadurch den Druck auf die GPU-Entwickler erhöhen könnte, was letztendlich zu einer Verbesserung für alle führen würde.
 
SP1D3RM4N schrieb:
Schade, ich war immer ganz froh über die vollständige Datenbank auf der Nvidia Seite... Aktuell z.B. Bei Star Wars, der Game Ready Driver hat meine CS:GO frames einstürzen lassen, funktionierte aber super bei Battlefront. Also konnte ich danach einfach wieder den zweit aktuellsten nehmen. Das gibts jetzt nicht mehr
Wer sagt, dass es keine Treiber-Historie mehr geben wird? NVidia selbst weis sehr genau das ein neuer Treiber nicht immer zu 100% kompatibel zu älteren Spielen. Und genau deswegen wird es auch weiterhin ältere Treiber geben.
 
cruse schrieb:
Experience installier ich immer mit - schon allein wegen shadowplay

Wie schon öfter erwähnt nutze ich nichts von der Suite.
Wenn ich mal aufnehme dann mit Afterburner. Nutze den eh, da ich die Lüftersteuerung nutze.
Vids, Pics und fps-Anzeige usw. also alles was ich nutze vorhanden. Wozu soll ich also zusätzliche unnütze Software insten?
Ich brauche und nutze auch kein Fraps, falls man mit dem Gedanken spielt mir derartiges vorzuwerfen oder so.
Es geht schlicht um die Tatsache, dass man quasi erpresst wird. Entweder man frisst die Datenschutzbestimmungen die mit Experience einhergehen (ob man es nutzt interessiert NVIDIA und CO nicht, die wollen nur die Daten!) oder man erhält nur noch 3-4 mal pro Jahr ein Treiberupdate.
Also tut euch keinen Zwang an^^

Die einzigen die rum flamen seit doch ihr...
"Ohman, die wollen einfach nicht gefügig werden. Ich flame das jetzt ewig durch, weil das ist mal voll extrem...paaa"
:D
 
cruse schrieb:
gäähn...wie alle rumflennen.

Wow, was für eine sachliche und sichhaltige Analyse.
Wenn jemand Software nicht installieren will und nicht gegängelt werden will, umschreibst du das mit "flennen".

cruse schrieb:
Ich für meinen teil hab hier nur Vorteile - das System läuft immer und ich hab nie Probleme mit irgendwelchen fps Drops in irgendwelchen games, nur wegen einem neuen treiber.

Warum sollte jemand pauschal Vorurteile haben, wenn sich einige User zu konkreten Problemen mit Experience geäußert haben? Ergibt keinen Sinn was du sagst,
Zumal Vorurteille mit dem Willen unnötige Programme zu installieren und eigene Nutzerdaten preiszugeben ja wohl gar nichts mit Vorurteilen zu tun haben.
Ich muss ja nicht wegen jedem Furz meine Emailadresse verifizieren, oder etwa doch?
 
In Zukunft gibt es Game-Ready-Treiber nur noch über GeForce Experience.
Uff, bravo Nvidia aber die meisten werden es wohl einfach hinnehmen müssen...
Dabei wäre Experience das erste das ich bei der Installation abwählen würde wie ich es auch mit Gaming Evolved tue.

Nun gut, es wird sicherlich auch weiterhin Treiber geben ohne diesen Softwarezwang aber erneut zeigt Nvidia wie gut sie es doch mit ihrer Kundschaft meint :)
 
Wadenbeisser schrieb:
Glückwunsch...damit hättest du die Stromkosten der einen Karte, jetzt fehlen nur noch die der anderen Karte um sie davon abzuziehen denn für einen Vergleich ist nur die Differenz relevant.
Welche sollen es also angesichts deiner Rechnung sein? Die GTX970 und die R9 390? Dann nehmen wir uns mal diesen Test vor: https://www.computerbase.de/2015-06...80-r7-370-test/3/#abschnitt_leistungsaufnahme
Schon schrumpfen die 250W aus deiner Rechnung auf 153W mit dem Referenz- und 129W mit dem OC Modell zusammen und landen bei einem Strompreis von 0,25€ pro kWh bei ca. 50€ für 2 Jahre.

Dazu zitiere ich mich gerne nochmal selbst
...Und seit wann ist CB dafür bekannt, professionell bei Messungen der Leistungsaufnahme vorzugehen? Etwa weil sie dort ausschließlich den gesamten PC samt Verlustleistung des PCs testen? Oder weil sie besonders realistische Szenarien wählen? Oder weil das Equipment einfach Klasse ist?(http://www.idealo.de/preisvergleich/OffersOfProduct/1772862_-energy-logger-4000-voltcraft.html)

Wenn du annähernd realistische Werte haben möchtest, solltest du dich an TomsHardware orientieren. Aber wie ich bereits geschrieben habe, ca. 200W vs ca. 250W oder meinetwegen auch 180W vs 230W bei den 290ern vs 970er
 
Zuletzt bearbeitet:
malte60 schrieb:
Hier macht niemand etwas schlecht, es ist einfach eine Schlechtigkeit von einer Firma ihre Kunden unnötig zu gängeln. Wie kann man das eigentlich gut finden? Da gibt es doch überhaupt keine Argumente dafür.:rolleyes:
Nenne doch bitte mal eines, da bin ich gespannt.
Nenne mal ein Argument, welches dafür spricht es so zu handhaben.

Experience kommt auch von einer Fremdfirma falls du es nicht weißt und einen Test zu den beiden Programmen kannst du auf CB nachlesen. Davon dass nur Evolved nur zu Problemen führen soll habe ich dort nicht lesen können.

1. Ich fühle mich durch das Vorhaben den Grafiktreiber über das GeForce Experience anzubieten nicht gegängelt, sollte das bei Dir der Fall sein, dann Verkauf Deine Nvidia Grafikkarte [falls Du überhaupt eine hast] und hol Dir eine AMD Grafikkarte, dann ist das Problem gelöst.

2. Es macht doch Sinn über ein Tool was zur Optimierung auch von Games vorgesehen ist, neue Treiber mit einhegehender Installation anzubieten, wenn diese für neue Games optimiert wurden.

3. GeForce Experience ist bei Nvidia vollends integriert und wird dort auch in der Webseite so angeboten, schau Dir bitte Evolved an, was von der Fa. Raptr kommt und wende Dich bei einem Problem mal an AMD und höre genau zu was diese Dir dann sagen. Dann verstehst Du auch was ich mit einer Fremdfirma meine und warum ich da jederzeit mit GeForce Experience als Kunde besser fahre.

4. Was den Test von CB zu diesen beiden Programmen hier schreibt, dazu habe ich meine eigene Meinung. Ich hatte AMD Grafikkarten, wie jetzt auch Nvidia und habe meine Erfahrungen selbst gemacht, da brauch ich keinen Test von CB.
 
Zuletzt bearbeitet:
@berkeley
Gerade für solche Stromkosten Vergleiche ist der System Verbrauch sogar ideal, da dort z.B. die Netzteilverlußte schon mit drin sind. Die unterschlägt man schließlich beim reinen Grafikkarten Vergleich und bleibt der Rest vom System gleich sind die Einflüsse der anderen Komponenten zu vernachlässigen. Solange keiner auf die Idee kommt die Schein- anstatt die Wirkleistung für die Stromkosten zu nehmen und dabei auch noch auf jedem Watt rum reitet sehe ich in der Leistungsklasse keine sonderlichen Problem denn richtig ungenau sind die Dinger idR. vor allem im unteren, meist einstelligen Watt Bereich.

Edit: Ach ja...dein Conrad Link geht nicht.

Edit2: Ich gehe mal davon aus das dieses Gerät gemeint war:
http://www.conrad.de/ce/de/product/125444/VOLTCRAFT-ENERGY-LOGGER-4000-LCD-0001-9999-kWh-4320-h
 
Zuletzt bearbeitet von einem Moderator:
Wadenbeisser schrieb:
@berkeley
Gerade für solche Stromkosten Vergleiche ist der System Verbrauch sogar ideal, da dort z.B. die Netzteilverlußte schon mit drin sind...
Es kommt ganz darauf an, was man veranschaulichen möchte.
- Bei dieser Art von Test fehlt jegliche Relation zur Leistung. Es gibt keine Angaben zu FPS in Relation zum Verbrauch.
- Der Test bildet keinen Durchschnitt aus mehreren Games sondern nur ein Spiel (Ryse)
- Das Equipment eignet sich nicht unbedingt dazu, genaue Messwerte zu liefern (das ist aber das geringste Problem)
- Das Testverfahren an sich ist extrem ungeeignet, um tatsächlichen Mittelwert herausbilden zu können
- Das Setting ist alles andere als realitätsgetreu (3.840 × 2.160 bei maximalen Details sowie aktiviertem SMAA)
- Innerhalb von 30 Minuten werden nur 30 Messwerte aufgenommen (quasi gewürfelt).

Ich zitiere aus CBs Testverfahren:

Deswegen wird die Leistungsaufnahme des Testsystems nicht mehr nur einmal innerhalb der 30-minütigen Testsequenz gemessen, sondern gleich 30 Mal – einmal pro Minute. Der im Balkendiagramm angegebene Wert entspricht dem Durchschnittsverbrauch der 30 Messwerte. Darüber hinaus gibt es bei konkurrierenden Grafikkarten ein Verlaufsdiagramm, das den minütlichen Energiekonsum zeigt. Die Auflösung beträgt dabei 3.840 × 2.160 bei maximalen Details sowie aktiviertem SMAA.

Es werden also mehr oder weniger zufällig 30 Messwerte zu einem Durchschnitt gerechnet. Es wird als mehr gewürfelt als tatsächlich gemessen. Genau aus diesem Grund entstehen zwischen CB und TomsHardware so grundlegend verschiedene Ergebnisse. Wenn man also konkret/genau misst (und all die Schwachstellen eliminiert), ergibt das ein ganz anderes Bild. Der Anspruch danach scheint aber relativ gering, solange Nvidia dabei gut weg kommt. Insgesamt ist die Messung für mich jedoch unbrauchbar. In dieser Hinsicht müssen wir uns entweder auf einen höheren Standard einigen oder die Diskussion einfach beenden.




Wadenbeisser schrieb:
Edit: Ach ja...dein Conrad Link geht nicht.
Konrad scheint irgendwie nicht zu funktionieren. Verlinkung zu Idealo aktualisiert.
 
Zuletzt bearbeitet:
CyberdyneSystem schrieb:
Er schrieb
...
und du bringst ein ein Jahr alten Benchmark zum Vergleich? :freak:
Er schrieb ursprünglich
malte60 schrieb:
Die GTX 780 Ti hat 10 bis 15% an Leistung verloren, über ca 1,5 Jahre.
Man muss die Karte heute mit 1100mhz betreiben um mit einer 1000mhz R9 290x oder 1000mhz r9 390 gleichzuziehen.
Diese Zahlen sind Blödsinn.
Überhaupt, wo hat sie denn an Leistung verloren? Ist es nicht eher so, dass sie an Leistung gewonnen hat? Das zeigt nämlich der Treibertest den man auch auf andere Keplerkarten projizieren kann.
Zeig mir ein Spiel welches im Vergleich zum Release der 780ti heute deutlich langsamer ist. Dann reden wir weiter.

Ursprung war dieser Beitrag:
grossernagus schrieb:
Weil die 290(X) mittlerweile schneller ist, als eine 780(ti) und sogar noch weniger gekostet hat.
Und das ist absoluter Unfug und trifft allenfalls auf vereinzelte Spiele zu. Genauso wie es vereinzelt Spiele gibt die auf der 780Ti 20% schneller laufen.
 
Der Landvogt schrieb:
Er schrieb ursprünglich
Ah okay, mein Fehler.
Ich habe euer "Disput" nicht komplett verfolgt und daher seinen ursprünglichen Post auf einer anderen Seite nicht gesehen aber dürfte sich nun eh erledigt haben ;)

So mal das ganze eh ziemlich OT ist
 
anyone23 schrieb:
Jetzt muss ich die Treiber wohl immer über dubiose Quellen aus dem Internet laden wenn ich meine 300 Euro teure Grafikkarte weiterhin voll nutzen möchte...

Ich werde mir dann auch wohl die Treiber von anderer Quelle ziehen müssen. Sollte doch irgendeine Person geben, die den Treiber auf oder irgendeinen Hoster stellt.

Wie jeder mitbekommen hat, hatte ich ja ständig den "ERR_GFX_3D3_INIT" bei GTA5 inkl. RMAs.

Gemacht habe ich folgendes:
- Spiel entfernt und mit Online-Installer geladen
- diverse Mainboardtreiber neu
- kein HDMI-Kabel in Verwendung*
- Treiber mit DDU entfernt und 358.50 drauf

Das mit dem HDMI-Kabel ist tendenziell ausgeschlossen. Möglicherweise hat auch nur dieser Starwars-Battlefront-Treiber den Error gefixt. Gibt durchaus einen Grund, doch mal diese Treiber zu laden, und zwar ohne Nvidia-Bloatware, die ich nicht will. Grafik stelle ich selber ein.

Wenn Nvidia noch auf die Idee kommt, Geld für Treiber zu verlangen, werden dann die Keks-Seiten einen erhöhten Besuch haben. Die Karten kosten doch schon genug.
 
@CyberdyneSystem
Ja, ist wirklich OT.

Man kann allenfalls sagen, dass beide Karten näher zusammengerückt sind. Aber das sind 5% um die der Abstand zwischen beiden Tests geschmolzen ist. Dabei muss man bedenken, dass das Messverfahren geändert wurde und NV mit der neuen Generation ein 3/4 Jahr früher dran war. Daraus zu schlussfolgern, dass AMD-Karten langlebiger sind (darum ging es ursprünglich mal) halte ich doch für sehr gewagt. Zumal man bei AMD immer froh sein muss überhaupt noch mit Treibern versorgt zu werden. Die 5000er und 6000er dürften auch bald rausfliegen und werden afaik bereits jetzt eh nicht mehr wirklich gepflegt. Und DAS macht für mich Langlebigkeit aus, besonders in einem Notebook.
 
@ berkeley
Da wurde einfach nur der Link unschön gekürzt (...) wodurch er dann nicht mehr funktionierte.

Zum Strom Thema....es kommt immer darauf an was man letztendlich wissen will.
Will man wissen was die Karte selbst frißt ist eine direkte Messung erforderlich, will man allerdings die Stromkosten wissen kommt man um den System Verbrauch nicht herum denn ebei den Stromkosten kommt es schließlich darauf an was aus der Steckdose gesaugt wird. Da es zuvor um die Zusatzkosten durch den höheren Strombedarf ging muss man hier sehr deutlich differenzieren.

Im übrigen ist die hohe Auflösung und Bildeinstellung für den test sogar recht gut gewählt, da man schließlich die Grafikkarte testet. Die hohe Auflösung drückt die Framerate und entlastet so die CPU, wodurch deren Anteil am Gesammtverbrauch schrumpft.
Wer aber exakte Werte für sein System haben will kommt letztendlich nicht drum herum sich die Karten zu kaufen und selbst zu testen denn dafür sind die Fertigungstolleranzen und die differenten bei der Hardware Auslastung zwischen den Spielen und den einzelnen Bild Einstellungen einfach zu gross.
 
Zurück
Oben