News Nvidia: Game-Ready-Treiber in Zukunft nur über GeForce Experience

@Wadenbeisser:

Ich wäre ja meinetwegen auch mit einer Messung des Komplettsystems samt Verlustleistung des Netzteils einverstanden, solange nur realitätsnah und korrekt gemessen wird. Das ist leider bei CB beides absolut nicht gegeben. Weder realitätsnahe GPU Belastung noch eine realitätsnahe CPU Belastung. Selbst die Messung wird in 30 Minuten nur 30! mal durchgeführt, also 30x Momentanverbrauch und davon der Durchschnitt. Normalerweise sollte die Messung eine gewisse Zeit lang durchgehend geloggt werden (z. B. mind. 5 min), weil die Leistungsaufnahme der GPU ja ständig zw. 150W und 350W schwankt (bei Nvidia raffinierter, bei AMD weniger raffiniert), um einen adäquaten Durchschnitt zu bilden (also bei weitem! wesentlich häufiger als nur 30 mal überhaupt).

Der Punkt ist, dass die von CB berechnet Leistungsaufnahme deshalb eben nicht dem entspricht, was hinterher auch tatsächlich aus der Steckdose gezogen wird. Die Verlustleistung des Netzteils bzw. des Gesamtsystems ist ja nicht Kern des Problems. Bei TomsHardware kommen auch für das Gesamtsystem entsprechend ganz andere Werte raus.
 
Zuletzt bearbeitet:
@berkeley
Mal abgesehen davon das es schon ziemlich offtopic ist....
Spielst du immer nur 5 Minuten und läßt die Karte danach abkühlen um für die Realitätsnähe einen solchen Wert auf die Aufheizphase mit den Taktspielchen des Turbos zu legen? Schwankungen hast du immer, und das Stromnetz ist übersäht mit Spannungsspitzen. Drum geben diese einfachen Messgeräte auch einen Mittelwert aus denn es bringst herzlich wenig sich an den Spitzen hoch zu ziehen denn die Nennleistung der Netzteile hat erstmal herzlich wenig mit deren (kurzzeitiger) Spitzenleistung zu tuen.
Das Stromnetz in deiner Wohnung ist schließlich auch nicht darauf ausgelegt das alle Steckdosen gleichzeitig maximal belastet werden und eine Sicherung bzw. Leitungsschutzschalter fliegt auch nicht sofort raus sobald der angegebene Sicherungswert überschritten wird.

Für Verbrauchsdifferenzen zwischen Grafikkarte A und Grafikkarte B im selben System und mit der selben Testsequenz ist der Rest des Systems aber relativ egal, sofern man nicht den unendlich dummen Fehler begeht die Werte von unterschiedlichen Seiten mit unterschiedlichen Test Sequenzen und Testsystemen direkt zu vergleichen denn bei so vielen Variationen sind die Werte für einen solchen Vergleich schlicht unbrauchbar.
 
Mal ganz davon abgesehen, dass bspw. eine 290/390 mittlerweile in fast jedem spiel schneller als eine 970 ist. Genauso bei der 380 vs 960. Ist ja nicht so, dass ich mir keine aktuellen Benchmarks anschaue.

von wo hast du den voodoo her?
im letzten benchmark roundup vom 13.10 liegt die 380 4GB gerade mal lächerliche 6% vor einer 960 4GB und die 290X (~390) lächerliche 3% vor einer 970.

in anbetracht der stromaufnahme und des preises verschmerzbar.
eine gute 960 4GB gibt es für unter 200€ und eine brauchbare 970 bereits um 315€.

damit hättest du die Stromkosten der einen Karte, jetzt fehlen nur noch die der anderen Karte

es geht nicht um die stromkosten, sondern um die hitzeentwicklung im gehäuse.
wenn sich weniger strom in wärme umwandelt, benötigt man nämlich auch weniger gehäuselüfter und kann obendrauf auch noch auf ein teureres netzteil verzichten.
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Aha.
Und du meinst, daß man deshalb jetzt allgemein sagen könne, daß AMD Grafikkarten über die Zeit mehr Leistung hinzu gewinnen als NVidia Karten?


Die R9 390 habe ich übrigens wegen dem doch sehr hohen Stromverbrauch nicht gekauft (und weil's nichtmal die aktuelle AMD Architektur ist). Mit der GTX 960 sind's jetzt fast 200W (!) weniger!
Daß ich dafür auch weniger Leistung habe, ist mir klar. Aber für mich waren beide Karten (GTX 970 und R9 390) zu Kompromiss-behaftet, als daß ich dafür 330€ hinlegen würde. Dann lieber doch noch mal günstiger fahren, und eben früher wieder upgraden.

Zum ersten Absatz: ja genau so ist es. Eine 780ti kann mit einer 290X/390X heutzutage nicht mehr mithalten. Genau wie GTX770 vs 280X. Guck dir mal die Spielebenchmarks der letzten 12 Monate auf pcgh an, da testet man ja Custom Karten.

Mit ner R9 390 hättest du 200W mehr Verbrauch als mit ner 960? Was soll denn der Quatsch? Deine 960 so wie du sie übertaktest zieht locker 120W. Eine 390/290 etwa 230W..also nix 200W Unterschied... Und du hast nicht einfach weniger Leistung sondern 30-40% weniger Leistung.

Im Übrigen kannst du deine 960 übertakten wie du lustig bist, wenn die alberne 128bit Anbindung zu eng wird, bringts dir praktisch nix. Hat man ja neulich im Battlefront Test gesehen. Da ist ja eine 960 kaum schneller als eine 270X :freak:
 
Zuletzt bearbeitet:
Zotac2012 schrieb:
Und wer GeForce Experience installiert hat und es nicht nutzen will, braucht es doch nur zu beenden, ich weiß nicht wo da das Problem liegen soll.
Tolle Logik. Warum soll ich mir etwas installieren, um es dann nicht zu verwenden? Oder gar etwas erwerben, um es dann in den Keller zu stellen. Und damit meine ich kein Regal für den Keller.
 
@0bercheker
Lass mich raten...du vergleichst mit der drosselnden 290x Referenz, welche im Schnitt nicht nur 10-15% langsamer als die Modell mit Custom Kühler ist sondern auch ca. 60-80W weniger Strom frißt, vergleichst letzteres aber mit dem ungedrosselten Uber Modus?
 
zeedy schrieb:
Zum ersten Absatz: ja genau so ist es. Eine 780ti kann mit einer 290X/390X heutzutage nicht mehr mithalten.
Gibts für den Blödsinn auch einen Beleg?
Abgesehen davon finde ich den Vergleich zwischen zwei Karten zwischen den 1,75 Jahre liegen etwas... seltsam.
 
Wo liegen zwischen der 290x und der 780ti fast 2 Jahre?
Die Ti kam sogar erst nach der 290x raus und die 390x nutzt mehr oder weniger den gleichen Chip bei vergleichbarer Taktfrequenz. Der größte Unterschied ist der größere Speicher.
 
Wadenbeisser schrieb:
Wo liegen zwischen der 290x und der 780ti fast 2 Jahre?
780Ti vs. 390X. Bei der 290X macht es 2 Wochen aus.
Warum ist die 390X eigentlich trotz "vergleichbarer Taktfrequenz" deutlich schneller als die 290X? Bremst AMD diese etwa künstlich aus?
 
Zuletzt bearbeitet:
Nein CB testet die alte R9 nicht mit dem aktuellen Treiber der nochmal einen guten Schub gebracht hat. Leistungsmäßig sind die R9 29x und R9 39x nahezu identisch bis auf den VRAM.

PS: Ihr merkt aber schon dass ihr schon wieder weit OT seid?
 
Zuletzt bearbeitet:
@Der Landvogt
Vielleicht ist es auch einfach nur eine Frage des Treibers denn ich habe eher selten tests gefunden in denen beide Modelle mit dem gleichen Treiber getestet wurden. Zum Teil wurden die Werte auch einfach nur immer wieder weiter vererbt...
Die Tests vom Release der 390x dürften denkbar ungeeignet sein da ich schond es öfteren laß das sie mit der 290x nicht wirklich liefen.
Man müßte sich also für einen objektiven Vergleich eher die Tests mit den aktuellen Treibern anschauen. Hieß es nicht auch mal das bei der Chip Version auf den 390er Modellen irgendwas am Chip verändert wurde? Vielleicht verträgt sich das ja nicht mit der alten Version.
 
Der Landvogt schrieb:
Gibts für den Blödsinn auch einen Beleg?
Abgesehen davon finde ich den Vergleich zwischen zwei Karten zwischen den 1,75 Jahre liegen etwas... seltsam.

Warum stellst du dich jetzt blöd an? Weisst du nicht dass 290(X) und 390(X) den selben Chip haben? 290X und 780ti sind zeitgleich erschienen, wobei der GK110 mindestens ein halbes Jahr früher fertig war.

Und wenn man etwas als Blödsinn bezeichnet, sollte man das auch begründen können du Landvogt.
 
Die 780 Ti hatte ebenfalls eine neue Chip Version bekommen, welche von da an auch teilweise bei der normalen GTX780 verbaut wurde.
Ich tippe mal darauf das dies für nie nötige Chip Ausbeute erforderlich war.
 
berkeley schrieb:
@Wadenbeisser:

Ich wäre ja meinetwegen auch mit einer Messung des Komplettsystems samt Verlustleistung des Netzteils einverstanden, solange nur realitätsnah und korrekt gemessen wird. Das ist leider bei CB beides absolut nicht gegeben. Weder realitätsnahe GPU Belastung noch eine realitätsnahe CPU Belastung. Selbst die Messung wird in 30 Minuten nur 30! mal durchgeführt, also 30x Momentanverbrauch und davon der Durchschnitt. Normalerweise sollte die Messung eine gewisse Zeit lang durchgehend geloggt werden (z. B. mind. 5 min), weil die Leistungsaufnahme der GPU ja ständig zw. 150W und 350W schwankt (bei Nvidia raffinierter, bei AMD weniger raffiniert), um einen adäquaten Durchschnitt zu bilden (also bei weitem! wesentlich häufiger als nur 30 mal überhaupt).

Der Punkt ist, dass die von CB berechnet Leistungsaufnahme deshalb eben nicht dem entspricht, was hinterher auch tatsächlich aus der Steckdose gezogen wird. Die Verlustleistung des Netzteils bzw. des Gesamtsystems ist ja nicht Kern des Problems. Bei TomsHardware kommen auch für das Gesamtsystem entsprechend ganz andere Werte raus.

=besser Leistungsaufnahme

DANKE. Ich schreibe das auch ab und an mal. Einfach einen richtigen STROMZÄHLER an die Kiste hängen und Benchparcour starten. Das was in Wh, bzw kWh unten steht, ist etwas um den tatsächlichen Verbrauch zu ermitteln. Allesw andere fällt unter "Milchmädchenrechnung"

Mir sträuben sich jedesmal die Haare wenn hier einer anfängt zu rechnen: 350W (ohne "h")(natürlich peak) und weiß dann genau was eine Karte Y "verbraucht" und damit nach 5 Jahren teurer ist als Graka X :king::lol:
 
Da hier wohl die wenigsten Elektriker oder Physiker sind und noch weniger davon im Lehramt sitzen werden ist mir die Verbrauch/Aufnahme Geschichte ehrlich gesagt recht egal. :D
 
Wadenbeisser schrieb:
Da hier wohl die wenigsten Elektriker oder Physiker sind und noch weniger davon im Lehramt sitzen werden ist mir die Verbrauch/Aufnahme Geschichte ehrlich gesagt recht egal. :D

Ach echt? Bist Du nicht immer einer der ersten der über Verbrauch fachsimpelt?
Das ist hier, als wenn 100 den Daumen in die Luft halten. Der erste "stellt fest" das es 22°C sind und das seit einer Woche, der nächste meint 24°C seit 5 Tagen, der dritte und alle weiteren kommen zu unterschiedlichen "Ergebnissen" (Wir erinnern uns: π mal Daumenmessung). Dann streiten alle 100 darüber, wer recht hat, und jeder meint rein subjektiv SEIN Ergebnis wäre das richtige.

Oder wäre es besser auf ein Thermometer zu schauen? ;)

PS: Und ich dachte immernoch, das wäre ein Technikforum.. Da lag ich wohl falsch!

PS2: Ach weiste was, da wir es nicht mit den Begriffen so genau nehmen, hat meine CPU jetzt 3,9Gbyte (OC) meine SSD 256MHz und meine 4GHz RAM haben @800Volt
 
Zuletzt bearbeitet:
Ich habe nicht gesagt das ich darüber nichts wüßte, ich sage nur das mir die Differenzierung zwischen den Begriffen egal ist. ;)
Mir ist auch klar das man kWh bezahlt, deshalb Spitzenwerte für die Stromkosten egal sind (hier zählt der Durchschnittswert) und Strom nicht verbraucht wird weil u.A. genau so viel Strom raus wie rein fließt. Das zudem Strom und Leistung gern zusammengewürfelt wird kann ich auch verkraften und weitgehend ignorieren, sofern man erkennen kann worum es geht.
 
zeedy schrieb:
Warum stellst du dich jetzt blöd an? Weisst du nicht dass 290(X) und 390(X) den selben Chip haben?
Ja und? Die Karte ist trotzdem erst 2015 erschienen anstatt 2013. Nvidia hätte Kepler auch heute noch (ggf. überarbeitet) rausbringen können. Macht aber wenig Sinn.

Wadenbeisser schrieb:
@Der Landvogt
Vielleicht ist es auch einfach nur eine Frage des Treibers denn ich habe eher selten tests gefunden in denen beide Modelle mit dem gleichen Treiber getestet wurden. Zum Teil wurden die Werte auch einfach nur immer wieder weiter vererbt...
Die Tests vom Release der 390x dürften denkbar ungeeignet sein da ich schond es öfteren laß das sie mit der 290x nicht wirklich liefen.
Man müßte sich also für einen objektiven Vergleich eher die Tests mit den aktuellen Treibern anschauen. Hieß es nicht auch mal das bei der Chip Version auf den 390er Modellen irgendwas am Chip verändert wurde? Vielleicht verträgt sich das ja nicht mit der alten Version.
PCGH hat vor ein paar Tagen ihren "Leistungsindex 2015" veröffentlicht:
http://www.pcgameshardware.de/Grafi...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Ich denke mal, dass dieser aktuell genug ist. Hier ist die 780Ti unter FullHD vor der 290X, bei 4k bricht sie erwartungsgemäß ein, insgesamt sind beide gleichauf. Allerdings war die 780Ti auch nie wirklich für 4k gemacht, für mich spielt es daher keine Rolle. Die 390X liegt hier immerhin noch 11% vor der 290X. Allein durch 5% höheren Takt scheint mir das nicht erklärbar. Weshalb AMD zu Release der 390X auf optimierte Treiber für die 290X verzichtet hat hinterfragt auch wieder mal niemand. Würde Nvidia das machen wäre der Teufel los.

zeedy schrieb:
ich sehe nur alte und überholte Artikel. Schau dir doch mal den Link oben an. ;)
 
Zuletzt bearbeitet:
Zurück
Oben