News Nvidia: Game-Ready-Treiber in Zukunft nur über GeForce Experience

UltraWurst schrieb:
Doch (ausklappen nicht vergessen).
Und sie liegt vor der 290X.

Nein, liegt sie nicht.
Die Karte liegt 4% bis 7% vor einer 880mhz R9 290x, währen die Karte früher noch12 bis 14% vorne lag.

https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/4/

Während die 1000mhz R9 290x zu Release in Full HD noch 7% Punkte zurücklag, liegt sie jetzt 6% vorne.
Man sollte die Benchmarks schon lesen können.
Die GTX 780 Ti hat 10 bis 15% an Leistung verloren, über ca 1,5 Jahre.
Man muss die Karte heute mit 1100mhz betreiben um mit einer 1000mhz R9 290x oder 1000mhz r9 390 gleichzuziehen.

Aber der Landvogt würde die AMD Karte wohl auch mit 800mhz betreiben, damit ne 928mhz GTX 780 Ti schneller ist, nur um zu sagen Nvidia hätte weiterhin die Leistung die sie damals haben.
Das hat die 780 Ti eben nicht. Kepler ist Leistungsmäßig deutlich abgefallen.
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Doch (ausklappen nicht vergessen).
Und sie liegt vor der 290X.
Das sind aber glaube ich noch alte Treiber und das Referenzmodell von damals. Die waren auch tatsächlich nicht so gut, weil sie schnell ins Temperaturlimit gelaufen sind.
 
UltraWurst schrieb:
Mal davon abgesehen, daß die Differenz größer als 50W ist, ist die GTX 960 so wie man sie kauft (nämlich OC) so ziemlich genau so schnell wie die R9 380.
(Je nach Spiel schneller/langsamer.)

Naja ... und dann kann man da in aller Regel noch 10-15% mehr Leistung rausholen, bei der 380 meist nur ca. 5%. Habe ziemlich genau 13% mehr Leistung aus der ohnehin schon OCed MSI rausholen können. Da kann keine R9 380 mithalten.
Mal davon abgesehen, dass die Darstellung "etwas" realitätsverzerrt ist und eine 380 in deinem Szenario insgesamt gerade mal ca. 60€ innerhalb von 2 Jahren verbrauchen würde, wüsste ich trotzdem nicht, wie sich im gleichen Zeitraum 50€ einsparen ließen (außer mit Intel GPU, das geht ganz sicher).

Ich verstehe das nicht. Warum müssen Nvidia Käufer in Foren häufig ihren Kauf rechtfertigen? Hier wird doch z. B. niemand gesteinigt wenn er eine Nvidia oder AMD bevorzugt. Ist doch auch kein Kaufberatungsthread, und ich versuche hier z. B. auch niemandem eine AMD anzudrehen oder davon zu überzeugen (höchstens realitätsverzerrte Sicht korrigieren).

Jedes mal artet es aus in "AMD ist besser, nein Nvidia ist besser". Dabei geht es hier doch um ein ganz anderes Thema.


Damit aber das Thema "AMD Leistung legt bzw. legt nicht über die Zeit zu" nicht mehr weiter durchgekaut werden muss, hier mal ein Link:
http://www.3dcenter.org/news/eine-neubewertung-der-performance-von-amds-gcn-basierten-grafikkarten

Zitat:
Zum Launch der Radeon R300 Serie deutet es sich schon an, mittels der Testresultate zum Launch der GeForce GTX 950 konnte es dann eindeutig belegt werden: AMDs GCN-basierte Grafikkarten gewinnen mit dem neuen AMD-Treibern etwas, aber meßtechnisch bemerkbar an Performance hinzu...

... aber insbesondere die "alten" GCN-basierten Grafikkarten in Form der Radeon HD 7000 und R200 Serien kommen in diesem noch etwas schlechter weg – ungerechtfertigt schlechter weg, wie sich nunmehr belegen läßt.
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
@Nova eXelon
Und wer GeForce Experience installiert hat und es nicht nutzen will, braucht es doch nur zu beenden, ich weiß nicht wo da das Problem liegen soll.

Die meisten Ahnungslosen die hier, die von einer Bloatware sprechen, sind doch eh die AMD Fanboy`s, die ja generell alles von Nvidia ablehnen und schlecht machen, das ist hier doch schon gang und gebe auf CB. Ich installiere mir lieber tausendmal ein GeForce Experience das von Nvidia kommt, als ein Evolved bei AMD, das von einer Fremdfirma kommt und wirklich nur zu Problemen führt.[/SIZE] ;)


Das Problem ist die Treiber-Sache, nicht alle zusätzlichen Features, die GeforceExperience einem anbietet.
Da wir ja leider in einer Zeit nun sind, wo Spiele nicht unbedingt am Release-Tag gut optimiert erscheinen und von beiden Herstellern immer vorab/am Releasetag/kurz darauf auf diese Spiele optimierte Treiber erscheinen, damit das Spiel eine bessere Performance hat/überhaupt startet, ist eine Handhabe über ein extra Tool einfach nur umständlich, vor allem dann, wenn ich die restlichen Funktionen des Tools gar nicht nutzen will.

Dann kommt hinzu: nicht jeder neue Treiber funktioniert auch einwandfrei, ohne Probleme usw. (egal ob von NV oder AMD). Was passiert, wenn also ein über GefroceExperience installierter Treiber auf meinem System Probleme macht? Bisher kann ich einfach den vorherigen GameReady Treiber wieder drüber bügeln und fertig. Das geht dann nicht mehr. Ich muss dann einen 3 Monate alten Treiber drüber installieren und auf alle danach folgenden Verbesserungen erstmal verzichten bis der nächste GameReady-Treiber erscheint bzw. die Probleme gelöst sind.

Das ist keine sonderlich clevere und gute Lösung.
Wenn AMD sowas forcieren wollen würde, dann würde ich genauso das als Unsinn empfinden, da es einfach keinen Vorteil bringt.
Man gibt eher Kontrolle ab und muss bei Problemen dann einen umständlicheren Weg gehen als bisher.
 
Bin gespannt wie lange es dauert bis wir die Nvidia Treiber lieber von zwielichtigen Untergrundseiten laden als sie direkt vom Hersteller zu beziehen ...
 
Smagjus schrieb:
Du vergisst, dass der verlinkte Test so alt ist, dass die Spieleauswahl nicht mehr die gleiche ist.
Exakt so ist es. Nehmen wir das einzige Spiel das bei beiden Tests vorkommt. Da steigt der Vorsprung der 780Ti von 5% auf 7%.
Ich hoffe mal, dass hier nicht noch jemand einen Schock erleidet weil sein Weltbild gerade zusammenbricht. :D
 
Relaxo32 schrieb:
Dann kommt hinzu: nicht jeder neue Treiber funktioniert auch einwandfrei, ohne Probleme usw. (egal ob von NV oder AMD). Was passiert, wenn also ein über GefroceExperience installierter Treiber auf meinem System Probleme macht? Bisher kann ich einfach den vorherigen GameReady Treiber wieder drüber bügeln und fertig. Das geht dann nicht mehr..
Da hatte ich schon Anandtech zitiert. Demnach soll Experience eine Funktion erhalten, um zum letzten Treiber zurückzukehren. Wenigstens eine Sache, die funktioniert.
 
On Demand quasi!
Vllt kann man dann per Shortcut umschalten oder den Lieblingatreiber einem Spiel zuweisen ;)
 
Zotac2012 schrieb:
Die meisten Ahnungslosen die hier, die von einer Bloatware sprechen, sind doch eh die AMD Fanboy`s, die ja generell alles von Nvidia ablehnen und schlecht machen, das ist hier doch schon gang und gebe auf CB.

Und dieses Wissen nimmst du genau woher? Also das das natürlich alles AMD-Fanboys sind. Mit solchen Aussagen stellst dich übrigens auf die selbe Stufe, wie die von dir so verachteten AMD-Fanboys. Denn durch deine Reaktion zeigst ja das es dich doch insoweit beschäftigt, daß deinem bevorzugten Hersteller an den Karren gefahren wird, daß du ihn sogleich verteidigen musst. Ergo selber Fanboy.

@Thema
Hab Experience schon seit dem ersten Tag auf dem Rechner und noch nie Probleme gehabt. Kann den Aufriss auch nicht unbedingt nachvollziehen. Da gibt es, wenn es um das Thema Bevormundung und ähnliches geht, weitaus wichtigere Bereiche wo man sich drüber aufregen kann. Und wenn mein "Uraltrechner" aus 2009 mit aktuell 79 aktiven Prozessen im Hintergrund, nicht einbricht, sollten es all die "mein 2500K rockt noch immer allles, wer brauch da Skylake" Rechner doch allemal damit klarkommen :p.
 
Smagjus schrieb:
Da hatte ich schon Anandtech zitiert. Demnach soll Experience eine Funktion erhalten, um zum letzten Treiber zurückzukehren. Wenigstens eine Sache, die funktioniert.

Wenn es ordentlich funktioniert, wäre es gut und damit ein Problem aus der Welt.
Trotzdem sollte es jedem weiterhin selbst überlassen sein wie er denn die Treiber sich besorgt.
 
berkeley schrieb:
Mal davon abgesehen, dass die Darstellung "etwas" realitätsverzerrt ist und eine 380 in deinem Szenario insgesamt gerade mal ca. 60€ innerhalb von 2 Jahren verbrauchen würde, wüsste ich trotzdem nicht, wie sich im gleichen Zeitraum 50€ einsparen ließen (außer mit Intel GPU, das geht ganz sicher).
https://www.computerbase.de/2015-08...karten-von-r7-360-bis-r9-390x-im-vergleich/7/
Also ich sehe hier 83W Unterschied.
Das wären bei meinen 2h pro Tag 2*365*83 = 60,59kWh
Strom kostet bei mir zur Zeit ca. 27Cent pro kWh. Damit sind's in 3 Jahren 49€.
Ich brauche mir damit auch nichts zu rechtfertigen, aber es ist eben ein Faktor, den man ruhig mal berücksichtigen kann.

berkeley schrieb:
Damit aber das Thema "AMD Leistung legt bzw. legt nicht über die Zeit zu" nicht mehr weiter durchgekaut werden muss, hier mal ein Link:
http://www.3dcenter.org/news/eine-neubewertung-der-performance-von-amds-gcn-basierten-grafikkarten
Ja Wahnsinn.
Dieser Seite nach legte die 290 durch Treiber-Updates 4,3% an Leistung zu.
(Andere Karten übrigens deutlich weniger.)

Das ist nett, keine Frage. Aber ohne NVidia Karten zum Vergleich nicht sonderlich aussagekräftig, und in jedem Fall keine allgemein gültige Aussage im Stile von "AMD-Karten gewinnen mehr Leistung hinzu als NVidia-Karten".
(Zumal mir da eh konkrete Infos zu Spielen und Treiber-Versionen fehlen.)

Achja, und übrigens:
https://www.youtube.com/watch?v=iZUshOSWQRo
 
Zuletzt bearbeitet:
Immer das selbe.
Demnächst darf dann MS kommen und dir vorschreiben den MSE / Defender zu installieren / installiert zu lassen. Du kannst ja die Suite deaktivieren / musst sie ja nicht nutzen. Aber wer den Defender nicht installiert, der bekommt keine Updates mehr.

Oder hier:
Du hast dich gefälligst für Online Banking anzumelden. Wenn du das nicht tust (man muss es ja nicht nutzen), dann bekommst du kein Geld mehr von Automaten abgehoben.

Noch mehr Beispiele?

Ich für meinen Teil nutze kein Experience, brauche es gar nicht und will ich auch nicht haben. Und ich lasse mich damit auch nicht erpressen.
Ihr kommt stndig mit dem Argument daher, man soll sich erpressen lassen - wort wörtlich (Sinn gemäß):Frisst kein Brot im Schrank (kaum RAM), juckt einem nicht (man merkt gar nicht, dass das Programm läuft) und man kann sich zum besseren Gewissen belügen in dem man behauptet: Du, ich hab das gar nicht auf dem PC (das Monitoring Tool im Tray beenden).
Die einhergehenden Datenschutzbestimmungen ignorieren wir natürlich auch. Wozu soll man sonstigen Herstellern und Partner meine Daten verwehren, wenn man eh etwas nutzt, dass man eigtl überhaupt nicht benötigt.
Hey, das ist gut, also lasst euch alle erpressen. Das scheint nach Aussagen einiger hier doch gaanz normal und völlig verständlich zu sein.
Wieso man sich so streubt erschließt sich doch gar nicht.

Ich werd bekloppt hier...echt^^
 
UltraWurst schrieb:

Ah ja, ok. Anhand von ganzen 4 Spielen.

Just Cause2 und Metro 2033 verstehe ich ja noch, dass man dort Treiber von 2010 mit den von 2015 vergleicht. Die Spiele sind ja wenigstens von ca. 2010.
Aber FarCry 4 und Witcher 3?? Ernsthaft? Wie sollten diese Titel bitte anders als scheiße mit Treiber von 2010, 2011, 2012 oder eben Anfang 2014 laufen, wenn es diese Titel zu dem Zeitpunkt noch garnicht gab? Selbst für Menschen mit Dyskalkulie sollte wohl ersichtlich sein, dass dort Verbesserungen im zweistelligen %Bereich locker drin sein sollten.
Mal abgesehen davon, dass ich nicht mal ernsthaft daran glaube, dass die beiden Spiele mit diesen Treibern überhaupt einwandfrei laufen.

So viel zu Realitätsverzerrung. Ja Wahnsinn. Bei 3DC wird wenigstens jeder verfügbare Test aus unzähligen Spielen ins Rating genommen...

Was der Strom bei dir kostet ist dein Problem. Ich verbiete dir ja nicht Nvidia zu kaufen. Aber wie kannst du aus deinen Verallgemeinerungen davon ausgehen, dass der Strom bei jedem andere auch 27 Cent kostet? Und seit wann ist CB dafür bekannt, professionell bei Messungen der Leistungsaufnahme vorzugehen? Etwa weil sie dort ausschließlich den gesamten PC samt Verlustleistung des PCs testen? Oder weil sie besonders realistische Szenarien wählen? Oder weil das Equipment einfach Klasse ist?(http://www.idealo.de/preisvergleich/OffersOfProduct/1772862_-energy-logger-4000-voltcraft.html)

EDIT:

Zumal selbst in dem 83W Szenario (Ryse) bei CB eine 380 (970 MHz) etwa 15% vor einer 960 OC (1.393 MHz) liegt. Ich war nicht derjenige, der behauptet hat, dass bei der 960 noch 10-15% OC Reserven vorhanden sind (also lockere 1600mhz?...) und die 380 noch maximal 5% OC mitmacht. Da bist du der Experte. Falls du aber tatsächlich mal etwas informatives zum Thema Maxwell-Effizienz suchst, schau doch einfach bei TomsHardware vorbei. Die habe dort auch die Effizienz (inkl. OC) der 960 getestet.
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Exakt so ist es. Nehmen wir das einzige Spiel das bei beiden Tests vorkommt. Da steigt der Vorsprung der 780Ti von 5% auf 7%.
Ich hoffe mal, dass hier nicht noch jemand einen Schock erleidet weil sein Weltbild gerade zusammenbricht. :D

Dann willst du also lieber alte Spiele, statt aktuelle bewerten, nur damit du nicht zugeben willst, dass eine 780 Ti im Schnitt etwas abgefallen ist.:lol:
Die Karte hat gut 10% ihrer Performance in aktuellen Games verloren.
Sei es gegenüber der GTX 970 oder gegenüber Hawai, keine Ahnung warum man das nicht sehen will, wahrscheinlich hat es mit Fanboytum zu tun.

Die Karte hat durch Die Bank an Leistung eingebüßt, während Hawai ganz klar zugelegt hat.

Ultrawurst schrieb:
Achja, und übrigens:

Ein Spiel von 2014 mit einem Treiber von 2011 testen... Facepalm.
Schau doch die Videos vorher an, bevor du sonen Quatsch verlinkst.
Im Endeffekt ist das ein Test von zwei Games, was für eine Bereicherung für die Diskussion hier.

Tatsache ist dass die GTX 780 Ti im Schnitt langsamer geworden ist, ob es euch nun passt oder nicht.
 
Zuletzt bearbeitet:
berkeley schrieb:
Ah ja, ok. Anhand von ganzen 4 Spielen.
Langsam ...
Ich bin nicht derjenige, der hier in den Thread gekommen ist und ganz allgemein Aussagen über AMD/NVidia-Karten und deren Leistungszuwächse über Zeit gemacht hat. :rolleyes:

Vielleicht einfach mal wieder runter kommen. Den Fanboy stecken lassen und ganz objektiv bewerten.
Oder eben auch nicht bewerten, wenn einem schlicht die nötigen Informationen dazu fehlen.

Ich wiederhole mich:
Das Thema wäre wirklich mal sehr interessant und sollte (wie auch die CPU-Last) endlich mal genauer untersucht werden.
Aber scheinbar hat keine Tech-Seite Lust, sich mal wirklich die Mühe zu machen, das auch entsprechend umfangreich zu analysieren. :/
 
@Sontin
Ja doch na klar. Doch wähle ich meine Settings selber. Auch nutze ich keine Tools, die mir sagen ob neue Updates verfügbar sind. Ich schaue selber und entscheide über Notwendigkeit.
Mag sein, dass es Menschen gibt die unbedingt zusätzliche Tools und Programme benötigen um in Erfahrung zu bringen ob es was neues gibt oder wie man ein Spiel spielt.
Ich gehöre nicht dazu ;)
Sry, aber dein Post liest sich so als ob du ohne Experience gar nicht zocken könntest. Das muss tiefen psychologische Gründe haben.
Anders kann ich mir das nicht erklären.
 
gäähn...wie alle rumflennen.
Den letzten NV Treiber hab ich vor 1-2 Monaten installiert. Mache das sehr unregelmäßig und es ist am ende auch scheissegal.
Experience installier ich immer mit - schon allein wegen shadowplay

ich für meinen teil hab hier nur Vorteile - das System läuft immer und ich hab nie Probleme mit irgendwelchen fps Drops in irgendwelchen games, nur wegen einem neuen treiber.
never Change a running System - für einige "pros" hier nur ein satz
 
UltraWurst schrieb:
Langsam ...
Ich bin nicht derjenige, der hier in den Thread gekommen ist und ganz allgemein Aussagen über AMD/NVidia-Karten und deren Leistungszuwächse über Zeit gemacht hat. :rolleyes:

Du bist offenbar aber jemand der das aus welchen Gründen auch immer belanglose und substanzlose Dinge postet.
CB zeigt klar, dass die 780 Ti über die Zeit abgebaut hat und das liegt in Full HD gerantiert nicht am V-ram.

Vielleicht einfach mal wieder runter kommen. Den Fanboy stecken lassen und ganz objektiv bewerten.
Oder eben auch nicht bewerten, wenn einem schlicht die nötigen Informationen dazu fehlen.

Der CB Test liefert dafür genug Informationen und deutlich mehr als effektiv 2 Spiele...die du verlinkt hast.
 
Zurück
Oben