News Nvidia: Game-Ready-Treiber in Zukunft nur über GeForce Experience

Wadenbeisser schrieb:
Das zudem Strom und Leistung gern zusammengewürfelt wird kann ich auch verkraften und weitgehend ignorieren, sofern man erkennen kann worum es geht.
Um auf den Punkt zurückzukommen, den Berkeley eigentlich meinte und eine Vereinfach ja allen entgegenkommen würde: Hängt nen Stromzähler dran und gut ist. Für den Benchmarkparcour braucht Graka X 1200Wh und Graka Y 1300Wh.
 
Der Landvogt schrieb:
PCGH hat vor ein paar Tagen ihren "Leistungsindex 2015" veröffentlicht:
http://www.pcgameshardware.de/Grafi...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Ich denke mal, dass dieser aktuell genug ist. Hier ist die 780Ti unter FullHD vor der 290X, bei 4k bricht sie erwartungsgemäß ein, insgesamt sind beide gleichauf. Allerdings war die 780Ti auch nie wirklich für 4k gemacht, für mich spielt es daher keine Rolle. Die 390X liegt hier immerhin noch 11% vor der 290X. Allein durch 5% höheren Takt scheint mir das nicht erklärbar. Weshalb AMD zu Release der 390X auf optimierte Treiber für die 290X verzichtet hat hinterfragt auch wieder mal niemand. Würde Nvidia das machen wäre der Teufel los.

Ich konnte da nicht wirklich finden um was für eine 290x es sich nun handelte. Das drosselnde Referenz Modell oder ein nicht drosselndes Modell mit Custom Kühler?
Dieser "kleine" Unterschied machte ja schon damals gute 10-15% aus, wodurch solche allgemein gehaltenen Angaben für allem bei der 290x für viel Wirbel sorgte und gehen wir vom Referenz Modell aus dann landen wir bei Modellen mit Custom Kühler ganz Schnell in der Region der 390x. Beim damaligen Test der R9 300 Reihe sieht man das recht deutlich wenn man die Werte der 290x mit denen des OC Modells vergleicht und auch dort sind die Modelle nur allgemein benannt.
https://www.computerbase.de/2015-06/amd-radeon-r9-390x-390-380-r7-370-test/3/#abschnitt_leistung
Es kann also durchaus sein dass sich die Modelle bereits mit den Treiber Updates angeglichen haben.
 
Wadenbeisser schrieb:
Ich konnte da nicht wirklich finden um was für eine 290x es sich nun handelte. Das drosselnde Referenz Modell oder ein nicht drosselndes Modell mit Custom Kühler?
Genau, wir nehmen eine Custom 290X OC und lassen sie am besten gegen eine Stock 780Ti UC antreten. :freak:
Jetzt hat PCGH die falsche Karte genommen. Und die Custom 290X macht im Gegensatz zur normalen plötzlich einen Riesensprung. Mach dich doch nicht lächerlich.

Ganz nebenbei ist eine Custom 780Ti auch 15% schneller als eine Stock 780Ti:
https://www.computerbase.de/2013-11/geforce-gtx-780-ti-gigabyte-inno3d-test/2/#abschnitt_leistung
 
Zuletzt bearbeitet:
EchoeZ schrieb:
Um auf den Punkt zurückzukommen, den Berkeley eigentlich meinte und eine Vereinfach ja allen entgegenkommen würde: Hängt nen Stromzähler dran und gut ist. Für den Benchmarkparcour braucht Graka X 1200Wh und Graka Y 1300Wh.
Ich gehe mal lieber nicht weiter darauf ein denn dann müßte ich auf den Test Zeitraum eingehen und darauf ob es nun um das System oder die Grafikkarte selbst geht. ;)

Machen wir es also ganz einfach und sagen das System X mit Grafikkarte A 400W und mit Grafikkarte B 500W verheizt (wird ja nahezu ausschließlich in Wärme umgesetzt) und es bei 2h Daddelzeit einen Unterschied von 200Wh bzw. 0,2kWh ausmacht.
Das kann man sich dann aufs Jahr hoch rechnen, mit dem Strompreis (pro kWh) verrechnen und weiss dann wie die zusätzlichen Kosten sind.
 
Der Landvogt schrieb:
Ja und? Die Karte ist trotzdem erst 2015 erschienen anstatt 2013. Nvidia hätte Kepler auch heute noch (ggf. überarbeitet) rausbringen können. Macht aber wenig Sinn.
Hörst du jetzt auf dich lächerlich zu machen? Wenn du trollen willst, dann ist die Diskussion für mich beendet.
In den von mir geposteten Benchmarks sind auch 290er Karten dabei... Und nochmal zum Mitschreiben: 390er und 290er Karten verwenden den Hawaii Chip. Dass eine 390X und eine 290X taktnormiert gleich schnell sind, haben schon diverse Reviews gezeigt.


Der Landvogt schrieb:
PCGH hat vor ein paar Tagen ihren "Leistungsindex 2015" veröffentlicht:
http://www.pcgameshardware.de/Grafi...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Ich denke mal, dass dieser aktuell genug ist. Hier ist die 780Ti unter FullHD vor der 290X, bei 4k bricht sie erwartungsgemäß ein, insgesamt sind beide gleichauf. Allerdings war die 780Ti auch nie wirklich für 4k gemacht, für mich spielt es daher keine Rolle. Die 390X liegt hier immerhin noch 11% vor der 290X. Allein durch 5% höheren Takt scheint mir das nicht erklärbar. Weshalb AMD zu Release der 390X auf optimierte Treiber für die 290X verzichtet hat hinterfragt auch wieder mal niemand. Würde Nvidia das machen wäre der Teufel los.

Oh ja ein toller Leistungsraing! Teilweise mit Spielen aus dem Jahre 2008! Also erstens halte ich nicht viel von Leistungsratings. Das ist etwas für faule Leute, die keine Tests lesen sondern sofort zum Rating springen. Zweitens verzerren sie das echte Bild doch sehr: wenn Karte A in 9 von 10 Spielen praktisch genauso schnell ist wie Karte B, aber im 10. Spiel plötzlich 50% schneller, dann hast du am Ende einen Durchschnittswert der auf gut Deutsch fürn Arsch ist.
In diesem Leistungsindex sind Wolfenstein, Risen 3 und CoD AW schon mal 3 Spiele, die extrem(!) Nvidia-lastig sind...

Der für den Release der 300er Serie optimierte Treiber war ein Marketingtrick. Den Treiber konnte man kurz danach auch für die 200er Serie nutzen, das Ganze ist also nicht der Rede wert.

ich sehe nur alte und überholte Artikel
Ach weißt du was Landvogt, das wird mir jetzt zu blöd. Ich habe dir eine ganze Reihe topaktueller Benchmarks von Custom Karten verlinkt, die meine Bahauptung - 780ti ist aktuell langsamer als 290X/390X - wunderbar belegt. Wenn du ein Realitätsverweigerer bist, kein Problem. Aber dann halte dich mit Kommentaren wie, meine Behauptung sei Blödsinn, zurück.
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Genau, wir nehmen eine Custom 290X OC und lassen sie am besten gegen eine Stock 780Ti UC antreten. :freak:
Jetzt hat PCGH die falsche Karte genommen. Und die Custom 290X macht im Gegensatz zur normalen plötzlich einen Riesensprung. Mach dich doch nicht lächerlich.
Es gab auch Modelle mit Custom Kühler die die 1000MHz halten konnten und das referenz Modell schaffte es mit freigeschalteter Lüftersteuerung auch, nur fielen einen dann die Ohren ab.
Hättest du dir den damaligen Test der Referenz 290x mal angesehen dann wüßtest du auch das sie durch die begrenzte Lüfterdrehzahl und den fehlenden Grundtakt meist zwischen 800 und 900MHz schwankte und hast damit auch den Grund für diese hohe Differenz zu den Custom Modellen.
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/12/#abschnitt_powertune_20_in_der_praxis
Hast du aber offensichtlich nicht und wirst auch noch pampig. Damit ist das Thema für mich durch.
 
zeedy schrieb:
Dass eine 390X und eine 290X taktnormiert gleich schnell sind, haben schon diverse Reviews gezeigt.
Aus 5% mehr Takt 11% Mehrleistung. Respekt, das muss man erst mal schaffen.

zeedy schrieb:
Oh ja ein toller Leistungsraing! Teilweise mit Spielen aus dem Jahre 2008! Also erstens halte ich nicht viel von Leistungsratings.
Oh, Crysis Warhead (das mit riesigem Abstand älteste von 15[!!!] Spielen) ist dem Herrn nicht mehr fein genug. Das ist in sofern interessant weil AMD da eigentlich sehr gut abschneidet. Wie wäre es denn mit einem Spiel welches voll und ganz auf AMD optimiert ist? So ca. 10% schneller. Sollen wir das als das Leistungrating nehmen?
Ich halte übrigens nichts von Einzeltests da ich nicht nur einziges Spiel spiele, sondern zig verschiedene.

zeedy schrieb:
Zweitens verzerren sie das echte Bild doch sehr: wenn Karte A in 9 von 10 Spielen praktisch genauso schnell ist wie Karte B, aber im 10. Spiel plötzlich 50% schneller, dann hast du am Ende einen Durchschnittswert der auf gut Deutsch fürn Arsch ist.
Genau, wir selektieren uns die Spiele so damit es uns passt. Wenn meine favorisierte Karte schlecht in einem Spiel abschneidet hat dieser Benchmark keinerlei Aussagekraft und dann vergessen wir den gleich. Da nehmen wir lieber eins wo sie gut abschneidet...

zeedy schrieb:
Ach weißt du was Landvogt, das wird mir jetzt zu blöd. Ich habe dir eine ganze Reihe topaktueller Benchmarks von Custom Karten verlinkt, die meine Bahauptung - 780ti ist aktuell langsamer als 290X/390X - wunderbar belegt.
Topaktuell = 2014? Ich hoffe mal du hältst deine Termine nicht so ein. Oder kommst du wenn du sagt, dass du morgen vorbei kommst tatsächlich erst Mitte 2016 vorbei? Na dann gute Nacht! :freak:
Zudem immer die Benchmarks zu Release, sodass Patches und neuere Treiber keinen Einfluss haben. Glückwunsch zu so viel Unvermögen!

zeedy schrieb:
Der für den Release der 300er Serie optimierte Treiber war ein Marketingtrick. Den Treiber konnte man kurz danach auch für die 200er Serie nutzen, das Ganze ist also nicht der Rede wert.
Eben, war ja schließlich AMD. Die dürfen das.

Wadenbeisser schrieb:
Es gab auch Modelle mit Custom Kühler die die 1000MHz halten konnten und das referenz Modell schaffte es mit freigeschalteter Lüftersteuerung auch, nur fielen einen dann die Ohren ab.
Hättest du dir den damaligen Test der Referenz 290x mal angesehen dann wüßtest du auch das sie durch die begrenzte Lüfterdrehzahl und den fehlenden Grundtakt meist zwischen 800 und 900MHz schwankte und hast damit auch den Grund für diese hohe Differenz zu den Custom Modellen.
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/12/#abschnitt_powertune_20_in_der_praxis
Hast du aber offensichtlich nicht und wirst auch noch pampig. Damit ist das Thema für mich durch.
Und? Die 780Ti Custom Modelle haben auch eine Leistungsdifferenz von 15%.
Was ist daran so schwer zu verstehen, dass das alles am Ende nichts ausmacht wenn man unter gleichen Bedingungen Testet (OC vs. OC, Stock vs. Stock)?
Zudem kamen ja kurz nach Release der 290X neue Treiber mit einer überarbeiteten Lüftungssteuerung.
 
Im Zusammenhang mit der ersten Antwort deines Postings steht damit für mich fest dass du nicht begreifen willst worum es dabei geht denn du hast mein Posting trotz komplett Zitat offensichtlich noch nicht einmal gelesen. Wäre dies der Fall dann hättest du gewußt das es beim Referenz Modell nicht um 5% sondern um ca. 15-25% Taktunterschied gehen kann und hättest uns das Geschreibsel erspart.
 
Also ich bin dafür das CB in Zukunft nur noch mit dem Treiber der Hauptseite testet! Bloatware darf man nicht unterstützen!
 
Um nochmal zu verdeutlichen wie das ganze geplant ist:

In the new GeForce Experience Beta update we’re adding an email registration feature so we can better support and communicate with our users; the next time you download a Game Ready driver through GeForce Experience you’ll be asked for a verified email address. After that you’ll have instant access to drivers, will receive NVIDIA product news and announcements, and have the chance to win hardware, free game codes, early access to game betas, and other cool stuff.

http://www.geforce.com/whats-new/ar...roduces-new-gamestream-and-streaming-features
 
Knuddelbearli schrieb:
Also ich bin dafür das CB in Zukunft nur noch mit dem Treiber der Hauptseite testet! Bloatware darf man nicht unterstützen!
Wieso? Was ist mit denen, die GeForce Experience nutzen?
 
Sinthuria schrieb:
Wieso? Was ist mit denen, die GeForce Experience nutzen?

Das Argument ist keines da es soviele andere was ist mit denen die ... nutzen Gründe gibt.
Was mit denen die imemr noch Xp nutzen? oder Vista. Was mit denen mit AMD CPU usw usf.
 
Pisaro schrieb:
Geil..als ob das Programm jetzt irgendwelche Probleme bei euch verursacht, aber Hauptsache heulen. Typisch Deutschland, besten ihr verkauft alle eure Elektronikgeräte..

Bin mal gespannt wie du argumentierst, wenn dir die Grafikkarte abraucht weil Nvidia mal wieder einen Treiber verkackt hat. Lustig ist, dass du die News, die die Warnung zu dem Fehler beinhaltet erst dann lesen kannst, wenn du dir eine neue Nvidia gekauft hast.

Dass es aber gerade diesen Firmen gut geht die Ihre Kunden für dumm verkaufen, gibt den Firmen ja irgendwie Recht, dass deren Annahme richtig ist.

Edit: Ach ja, bitte liebe Experience Nutzer, legt das Ganze unter der E-Mail an die euren Klarnamen beinhaltet. Ihr habt ja nichts zu befürchten. Wer das nicht tut, aber solche Software befürwortet ist in seinem eigenem paradoxen Universum gefangen.

Nvidia verfolgt nur ein Ziel... Werbeeinnahmen mit euren Nutzerdaten. Also bitte seid ordentliche Homies.
 
Zuletzt bearbeitet:
Pelto schrieb:
Bin mal gespannt wie du argumentierst, wenn dir die Grafikkarte abraucht weil Nvidia mal wieder einen Treiber verkackt hat.
Gibt es jetzt auch hier einen Updatezwang oder wie kommst du jetzt auf dieses Argument?
 
Zuletzt bearbeitet:
Knuddelbearli schrieb:
Das Argument ist keines da es soviele andere was ist mit denen die ... nutzen Gründe gibt.
Was mit denen die imemr noch Xp nutzen? oder Vista. Was mit denen mit AMD CPU usw usf.
Es macht aber einen Unterschied über etwas nicht zu berichten, weil es keine Relevanz mehr hat oder etwas zu boykottieren. Es dürfte aber viele interessieren, ob ein neuer Treiber, auch wenn er nur über GeForce Experience zu beziehen ist, auch die entsprechenden Verbesserungen bringt. Auch für das Leistungsrating ist das nicht unerheblich.
 
Bei XP und Vista stimme ich dir ja zu, aber AMD CPUs keine Relevanz mehr? :freak:
 
Bevor das Thema wegen Offtopic geschlossen wird.....

...wenn AMD denselben Schritt mit ihrem Treiberpaket machen würde, also, wenn ich einen AMD-Treiber nur dann stets aktuell erhalten würde, wenn so eine dumme Hintergrundsoftware pflichtinstallieren müßte, dann, JA DANN WÜRDE ICH MICH GENAUSO AUFREGEN!


Also lasst diese dämlich strunzdoofen Fanboyvorwürfe mal weg. Im übrigen: Ich habe aktuell auch eine nvidia. Klar soweit?!




Andererseits sehe ich das langsam auch recht gelassen. Ich kaufe nagelneue Spiele nicht, weil sie heutzutage sowieso fast nur Bananensoftware darstellen. Wenn ich Treiber über die Internetseite nur noch alle viertel Jahre bekomme, ist das also sowieso kein Beinbruch, da neue Spiele erst dann spielbar sind wenn nach MINDESTENS einem viertel Jahr die Bugs behoben sind.
 
Naja Nvidia treibts mittlerweile auch ziemlich dolle mit der Kundschaft, erst der Supergau mit dem beschnittenem Speicher und jetzt Regestrierungszwang und ihre madige Software ? Also ich habe diesen Xperience Mist irgendwann runtergeworfen weil das Teil dauernd im Internet funkt bzw. Traffic verursacht und wieso es das macht ist mir auch recht schleiferhaft. Aber sollten die an dieser Taktik festhalten dann orakel ich denen mal ein wirklich mieses nächstes Quartal weil ich für meinen Teil werde, wenn das bestand haben sollte, zu AMD wechseln bei den nächsten Karten und ich könnte mir vorstellen so gehts vielen. Irgendwie wird man immer mehr verar****t als Kunde von den Firmen.
 
Zurück
Oben