News GeForce GTX 980 Ti: Nvidia plant schnellere GTX Titan X offenbar schon für Mai

Meine Güte... Diese ewige Leistungsaufnahme-Diskussion mal wieder.
Bei den Argumentationen mancher AMD-Fans kriege ich echt das Würgen.
Da werden überall aus dem Netz die Ergebnisse, die am besten für AMD ausfallen genommen, noch ein paar andere Argumente zum beschönigen dazugetan und das dann als absolute Wahrheit manifestiert, während alles, was dem Widerspricht vollkommen unseriös, falsch oder gar von Nvidia bestochen ist.
Da postet ein Daedal ein Diagramm, zieht den in dieser für die 970 vertretenen Höchstwert der MSI (gehört auch im CB-Test zu den stromhungrigsten Customs, obwohl nicht den höchsten OC (verstehe den Testsieg und die permanente Kaufempfehlung trotz hohem Aufpreis bis heute nicht)) und vergleicht mit einer durch Bios verkrüppelten Referenz-290X, die unmittelbar davor noch verteufelt wurde. Dass die so bejubelten Custom-290X im selben Diagramm viel mehr Leistung fressen ist plötzlich vollkommen egal. Mag ja sein, dass der Negativausreißer von MSI mit den 298W wegen Spannungserhöhung zu viel frisst. Fast direkt dahinter tümmelt sich eine Sapphire auch bei 270W, die selbe Referenz-290X mit anderem Bios liegt auch deutlich weiter oben. Dass sich da oben sogar deutlich schwächere 280X tümmeln ist auch interessante Nebenbeobachtung.

Das ewige schönreden der AMD-Verbräuche auf absurde Differenzen von 20W (also ernsthaft, das ist jenseits von Realität und selbst von Traumwelt noch unrealistisch weit entfernt) mit so weit her geholten Argumenten, dass die glatt aus der Andromeda-Galaxie importiert sein könnten ist einfach nur lächerlich. Und das schlimmste ist, dass es vollkommen unnötig ist. Die Verbrauchs-Debatte wird doch sowieso ständig als vernachlässigbar abgestempelt. AMD hat doch im wichtigen Bereich die Kaufempfehlungen, sogar von mir, der den hohen Verbrauch auch ziemlich schlecht findet. Dass Nvidias Karten aktuell aber bei der Leistungsaufnahme und Effizienz deutlichst die Nase vorn haben ist aber nunmal eine Tatsache, die auch ich einsehe, obwohl ich noch nie eine Nvidia-Karte im Rechner hatte. Die ist für den einzelnen Käufer natürlich nicht so dramatisch interessant, wie Nvidia-Fanboys das gerne hätten, aber die Unterschiede bei der Leistungsaufnahme sind auch nicht so gering, wie die AMD-Fanboys sie gerne hätten.

Das Schöngerede des Stromverbrauchs der AMDler geht mir hier mindestens genauso auf den Keks, wie das kategorische Ablehnen von AMD-Karten aus dem selben Grund.
 
Hopsekäse schrieb:
Da postet ein Daedal ein Diagramm, zieht den in dieser für die 970 vertretenen Höchstwert der MSI (gehört auch im CB-Test zu den stromhungrigsten Customs, obwohl nicht den höchsten OC (verstehe den Testsieg und die permanente Kaufempfehlung trotz hohem Aufpreis bis heute nicht)) und vergleicht mit einer durch Bios verkrüppelten Referenz-290X, die unmittelbar davor noch verteufelt wurde. Dass die so bejubelten Custom-290X im selben Diagramm viel mehr Leistung fressen ist plötzlich vollkommen egal. Mag ja sein, dass der Negativausreißer von MSI mit den 298W wegen Spannungserhöhung zu viel frisst. Fast direkt dahinter tümmelt sich eine Sapphire auch bei 270W, die selbe Referenz-290X mit anderem Bios liegt auch deutlich weiter oben. Dass sich da oben sogar deutlich schwächere 280X tümmeln ist auch interessante Nebenbeobachtung.
Lustig, das selbe Verhalten der Nvidia-Fanboys schien dich nicht zu einem Kommentar hinreissen zu können. Dies scheint aber wohl die hier im Forum einzig akzeptierte Argumentationsweise zu sein, so wie du schon wieder die Fakten als nicht existent deklariert hast scheint dir das auch lieber zu sein.
Hopsekäse schrieb:
Das ewige schönreden der AMD-Verbräuche auf absurde Differenzen von 20W (also ernsthaft, das ist jenseits von Realität und selbst von Traumwelt noch unrealistisch weit entfernt)
Ich bin mir sicher, dass meine 20 W näher an der mit Tatsachen belegbaren Realität liegt als die 200 W, welche mich dazu bewogen haben das ganze mal wieder aus dem Phantasiereich zu holen. Du sagst ja selber die Verbrauchsdifferenz zwischen den einzelnen GTX 970 sind gute 60 W von Modell zu Modell. Bei der R9 290X ja ebenso im Bereich 70 W Streuung. Also wie kommt jemand darauf etwas von 100-200W Differenz zu fasseln wenn es tatsächlich 20-100 W Differenz sind mit völlig unterschiedlichen Performancewerten?

Und wer zudem dann sagt dies sei der Grund die GTX 970 sei grundsätzlich ohne Alternative wegen dem Stromverbrauch, der kommt eben hier mit den Fakten konfrontiert ins Straucheln. Schön dass du mich direkt ansprichst, daher würde ich gerne sehen ob du auch ein Argument hier beitragen kannst - in dem Beitrag eben war leider keines zu finden.
 
Zuletzt bearbeitet:
Daedal schrieb:
Na und die andere GTX 970 verbraucht 198 W und die AMD mit Performance BIOS 33W mehr. Kauf die mit niedrigerem Verbrauch wenn es dir wichtig ist. Ist das nun noch ein Argument?

HT4U hat eine falsche Bezeichnung. Das ist der Quiet-Modus. Im Performance-Modus genehmigt sich die Karte 300W.

"Na und die andere" - richtig. Du nimmst eine am oberen Ende liegende GTX970 und vergleichst sie mit einer gedrosselten 290X. Hier wird dann auch noch das Grotten-Referenzdesign als kaufbar tituliert.

Hardware.fr hat Werte, die man glauben kann: http://www.hardware.fr/articles/928-7/consommation-efficacite-energetique.html
Es sind 80W btw. 69W für die Gigabyte GTX970 gegenüber der besten 290X von Sapphire bei gleicher Leistung.
Gegenüber dem Quiet-Modus sind es 30W btw. 80W bei deutlich besserer Leistung.

Wow. Was für eine Leistung. Was kommt als nächstes: Du behauptet dreist, dass die 290X "vollständiges DX12" gegenüber der GTX970 unterstützen würde? Oh, warte... :freak:

Deine Posting sind rein auf Kaffeefahrten- und AstroTV-Niveau: Dreiste Lügen, falsche Behauptungen und absurde Vergleiche.

Es wird immer offensichtlicher, dass du uns entweder alle für Idioten hälst oder hier mit aller Macht versucht Produkte deines Arbeitgebers zu verkaufen. Anders kann man solche sinnlosen Postings nicht mehr einordnen.
 
Sontin schrieb:
"Na und die andere" - richtig. Du nimmst eine am oberen Ende liegende GTX970 und vergleichst sie mit einer gedrosselten 290X.
Ach und auf welche Weise rechneten sich die 100-200W zusammen die immer wieder verlautet werden? Es wird ja wohl die selbe rechenweise gestattet sein bei den selben Vergleichen.
 
Sontin schrieb:
Wow. Was für eine Leistung. Was kommt als nächstes: Du behauptet dreist, dass die 290X "vollständiges DX12" gegenüber der GTX970 unterstützen würde? Oh, warte... :freak:

Das ist die große Frage, schliesslich sind alle Maxwell auch Dx12 tauglich.
http://en.wikipedia.org/wiki/GeForce_900_series

Da hat Mcirosoft es den Chiphersteller einfach macht so das Sie passend zu Windows 10 werben können, diese Karte kann DX12 bzw ist tauglich.
Die reinste Kundenverarsche, daher meine Frage immer welches Featureset.

mfg
 
Daedal schrieb:
Viele vergessen, dass eine diskrete GPU an sich ein Luxusprodukt ist, sowie alle Anwendungssoftware die man dafür kauft.

Schön gesagt und absolut richtig wie ich finde. Spiele sind Spielerei und daher im Regelfall Hobby, damit Luxus. Wie heisst es so schön: etwas ist erst dann ein Hobby wenn es teuer wird. Und wieviel man für sein Hobby "Spielen" ausgibt, das bleibt jedem selbst überlassen bzw. seiner Leistungsfähigkeit und seiner Ausgabebereitschaft: beides kann limitierend wirken, vor allem bei Grafikkarten mit schlechtem PLV (wenn auch brachialer Leistung).

Und dass die GTX980Ti ein noch schlechters PLV als die insofern ohnehin schon schlechte GTX980 haben wird, das wird niemand ernsthaft bestreiten. Ich vermute >700€, befürchte sogar runde 1000€, schon um die jüngsten Titan X-Käufer nicht zu verprellen.
 
Wie kommt es, dass ich mich nicht veräppelt fühle?
Mein Speicherkrüppel wird demnächst verkauft.:rolleyes:
 
Tjo so ist das wohl bei 70% Marktanteil, kleinstmögliche Schritte zum höchstmöglichen Preis. Intel hat es vorgemacht und Nvidia macht es jetzt nach, sie wären ja auch schön blöd wenn nicht.

Mit AMD auf dem absteigenden Ast (siehe letzter Quartalsbericht) wird es für den Kunden auch in naher Zukunft teuer bleiben, wenn nicht sogar noch teurer werden.

Nur gut, dass der Performancehunger der heutigen Anwendungen nicht mehr so schnell wächst wie in den 90ern, so dass man mit einem einmal gekauften ein paar Jahre durchhalten kann.
 
HeinzNeu schrieb:
Wie kommt es, dass ich mich nicht veräppelt fühle?
Mein Speicherkrüppel wird demnächst verkauft.:rolleyes:

Vielleicht weil Geld für dich keine Rolle spielt :rolleyes:
 
Das Problem beim Stromverbrauch ist doch immer: so ziemlich alle Testseiten haben am Anfang einfach die Referenz-Modelle verglichen.
Sehr schön sieht man das bei der Zusammenfassung bei 3D Center: http://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten .
Die GTX 970 verbraucht halt nur 161W im Schnitt, die 290x 241-276W.

Blos: kaum einer kauft ein Referenz-Modell, die meisten Übertakten ihre Karte zusätzlich. Daher sind solche Werte problematisch.
Der gute Igor Wallossek (hier im CB Forum als FormatC unterwegs) von Toms Hardware hat dazu damals einen guten Test verfasst: http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652-6.html

Demnach laufen die Referenz Modelle der GTX 970 an einem Sweetspot, aber sobald man übertaktet, steigt der Stromverbrauch der GTX 970 auch sehr stark an und eine GTX 970 verbraucht dann eben auch mal 229W. Je nach dem wie man das PowerTarget setzt.
Und da liegt am Ende das Problem: nutze ich einfach ein Referenz-Modell bzw. eine Karte mit niedrigem PowerTarget, dann schluckt die GTX 970 wirklich sehr wenig, übertakte ich aber (und das machen doch relativ viele hier im Forum, wenn ich mir immer wieder mal die Benchmark Beiträge und Co ansehe), dann schrumpft der Effizienz-Vorsprung der Karte eben von ehemals im Schnitt 100W auf die Hälfte zusammen.

Wenn ich jetzt zum Vergleich etwa die Durchschnittliche Leistungsaufnahme einiger R9 290x Karten aus dem Roundup herbei nehme: http://www.tomshardware.de/amd-radeon-r9-290-290x-test,testberichte-241458-4.html

Am besten dazu noch die Werte aus dem GTX 970 Roundup: http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-20.html

Daher: es kommt drauf an, was man mit einander vergleicht. Bei den Referenz Modellen verliert klar die R9-290x gegen die GTX 970 was den Verbrauch angeht. Aber die kauft ja auch kaum einer, meist wird zu einer von Werk aus übertakteten Version gegriffen und da ist dann der Unterschied nicht so extrem wie es eben bei den Referenz-Modellen der Fall ist.

Letztendlich stehen es 178,66W für die Boardpartnerkarten der GTX 970 zu 253,57W der Boardpartnerkarten der R9-290x. Das sind in etwa 75w unterschied, aber keine 100-200W wie manche hier im Forum einem glauben machen wollen.
Es ist natürlich weiterhin ein großer Unterschied, vor allem da die Karten sich auf 1920x1080 Auflösung nicht so viel in der Leistung nehmen (je nach Spiel).
Aber die AMD Karten sind auch älter, bei den Kosten nehmen sich beide nichts, wobei man auch zur R9-290 greifen kann, welche nochmal etwas weniger verbraucht im Schnitt bei den Boardpartnerkarten (218W) und kaum langsamer ist (oft sinds nur 5-10FPS unterschied bei FPS Zahlen > 100 bei den von Toms Hardware getesteten Spielen), aber 50€ günstiger ist gegenüber der R9-290x und GTX 970.

Ich würde also keinen so großen Hehl draus machen bezüglich des Energieverbrauchs und schon gar nicht dauernd das Referenz Beispiel heranziehen. Vergleicht die von euch favorisierte Karte des Boradpartners mit anderen Karten von Boardparnern, egal ob NV oder AMD. Anders gehts nun mal nicht.
Wie es dann mit der Effizienz der neue Generation aussieht von AMD, das wird sich dann zeigen.
Bis dahin kann man warten oder kauft eben eine GTX 970/980 oder eben eine R9-290(x), je nach dem ob man die Karte lange behalten will und somit der Mehrpreis der GTX 970/980 auch lohnt gegenüber der R9-290(x) (abhängig wie lange und viel man spielt) oder eben nicht.
 
Zuletzt bearbeitet:
Nvidia weiß vermutlich schon das die 390X ein paar % schneller sein wird und released daher die 980 Ti einige Zeit vor AMD. Es wäre witzlos mit einer langsameren Karte zu kontern.
 
Ihr mit euren Verbrauchswerten. Das macht 10 - im extrem Fall 40 € im Jahr aus. Und jetzt möchte ich wissen wer noch Glühlampen verbaut hat, den haue ich sie direkt um die Ohren. :evillol:
 
hRy schrieb:
Ihr mit euren Verbrauchswerten. Das macht 10 - im extrem Fall 40 € im Jahr aus. Und jetzt möchte ich wissen wer noch Glühlampen verbaut hat, den haue ich sie direkt um die Ohren. :evillol:

Ich hab noch 2 Glühbirnen im Gebrauch und 20 Stück auf Vorrat. Aber im Keller und Dachboden ist das noch vertretbar. Sonst nur 3 - 5 Watt LED Leuchtmittel im Gebrauch.

mfg
 
hRy schrieb:
Ihr mit euren Verbrauchswerten. Das macht 10 - im extrem Fall 40 € im Jahr aus. Und jetzt möchte ich wissen wer noch Glühlampen verbaut hat, den haue ich sie direkt um die Ohren. :evillol:

+1 :evillol::evillol::evillol:
 
latexdoll schrieb:
Ich hab noch 2 Glühbirnen im Gebrauch und 20 Stück auf Vorrat. Aber im Keller und Dachboden ist das noch vertretbar. Sonst nur 3 - 5 Watt LED Leuchtmittel im Gebrauch.

mfg

*agree* ;)
 
http://www.hardwareluxx.de/index.ph...xt-und-fiji-vr-sollen-im-juni-erscheinen.html
So sollen im Juni zwei neue Grafikkarten bzw. GPUs erscheinen. Diese hören auf den Namen "Fiji XT" und Fiji VR". Während "Fiji XT" bereits seit Monaten mit teils detaillierten Spezifikationen besprochen wird, erscheint eine "Fiji VR"-GPU auf den ersten Blick als echt Überraschung. Laut Fudzilla plante AMD die erste Revision der GPUs für das erste Quartal, war mit der Leistung und Fertigung aber nicht zufrieden und entschied sich zu einer zweiten Revision, die inzwischen besser laufen soll.
Man könnte sich vorstellen dass im ersten Quartal die Karte nur mit 4GB HBM hätte kommen sollen. Revision 2 könnte jetzt die 8 GB Version sein und eventuell besseren Takt oder mit niedriger Spannung auskommen. Na darf man gespannt sein, ob am Gerücht was stimmt.

Bei den Leaks zur Fijii damals, war eine 4GB Version getestet worden eventuell sogar nur Revision1. Es gab später nach den Leaks noch eine Aussage von einem AMD Mitarbeiter, dass der Leak nicht die tatsächliche Performance von Fijii zeigt. Also könnte man damals beim Leak bereits schon für Revision 2 von Fijii entschieden haben.

Dual Fijii wird wohl als Radeon 390VR vermarktet.
 
Zuletzt bearbeitet:
Zurück
Oben