News AMD schießt gegen die GeForce GTX 960

@D3xo. star citzien ist aber auch nicht die zielgruppe der gtx960 käufer. du wirst eh früher oder später für star citizien auf sli oder crossfire umsteigen müssen. und 1440p ist auch nicht die auflösung auf die die gtx960 ausgelegt ist
 
@Superzero und Sentionline:
Find ich gut das Ihr meint mich zu kennen.
Ich sag da mal nichts dazu und amüsiere mich hier prächtig! :evillol:

Das Kaufargument des Stromverbrauch bei einem Gaming-PC der ein paar Mal die Woche abends zum zocken läuft ist absolut bei den Haaren herbeigezogen! Meistens wird die Begründung doch nur von Personen genommen, bei denen die Kiste 10 Stunden am Tag unter Last läuft...
Oder halt von Leuten, die keine anderen Argumente mehr aufführen können :rolleyes:

@Herdware: Vielen Dank für die Erklärung.
 
Sentionline schrieb:
Oder die Stromrechnung mal selber zahlen und nicht Mutti. Strom wird teurer, also müssen PCs sparsamer werden. Zumal es heute ja möglich ist mit 100 Watt zu spielen und nicht 450 Watt (Phenom X4 965 + GTX570).

Ich zahle meinen Strom seit 11 Jahren selber. Und der PC war diese Jahre hinweg keine relevante Größe. Wie auch bei max. 3h Spielelast täglich.
 
Thane_DE schrieb:
Bisher waren mit Grafikkarten noch nie unsympathisch, höchstens nicht auf meine Bedürfnisse zugeschnitten :D

Aber grundsätzlich hat AMD da recht, 128bit sind einfach zu dünn, das merke ich bei meiner 650M auch lagnsam

128 Bit sind nicht gleich 128 bit.

Und natürlich hat ne 650m zuwenig speicherbandbreite...der GDDR5 taktet mir 1.8-4.0 Ghz. Wähhrenddessen taktet der speicher der 960 Gtx mit effektiven 9.3 Ghz...das ist MEHR als das doppelte.


Bandbreite 650M = 80GB/S
Bandbreite 960 = 112GB/S
AMD R9 285 = 170GB/s

Somit würde man jetzt sagen "Oha, die R9 285 muss ja 1000x besser sein"....NOPE. In HD ist die Leistung der 960 und 285 in etwas gleich.

Nur in UHD wüde die 285 gewinnen...was aber daran nichts ändert, dass die R9 285 in UHD trotzdem keine guten FPS erreicht..somit ist dieser Vergleich dämlich.

Die 960 hat genug bandbreite für 1080P 16:9 und 21:9 und sogar noch für 1440P 16:9.

Und das ist auch genau der Bereich für den sie gedacht ist.

Und das OC Potential der 960 sollte man auch nicht vergessen....es werden OC versionen rauskommen bei der die GPU von Haus aus 30-40% GPU Takt und der ram auch noch mal 10% OCd sein werden.

Und das ist etwas, dass die 285 nicht kann.
 
Deathangel008 schrieb:
und das alles weißt du genau woher...?

Was weiß ich woher?

Nvidia selbst hat schon die Werbetrommel gerührt und gesagt, dass der GPU Takt in vielen Fällen locker +40% OC aushält.

Wie viel die 285 OCd weiß man ja auch.

Die GB/s sind natürlich auch schon überall im Netz...und auch für die GTX 960 gibt es schon eine Handvoll Benchmarks welche natürlich "aus versehen" geleaked worden sind...und die GTX 960 sitzt auf all diesen Benchmarks im Bereich der 285...wobei es sich dabei natürlich NICHT um eine super OC version gehandelt hat.

Ich mein in den letzten 2 Wochen wurden bestimmt 100 Artikel im Netz veröffentlicht was die 960 angeht...sowas ist net schwer zu finden.


In HD wird der Wert von Bandbreite echt überbewertet...solange das über 100 ist...ist das für HD echt super. Ansonsten müssten so Karten wie ne GTX 580 heute ja immer noch Godlike sein mit ihren fast 200GB/s...sind se aber nicht.
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
Ich zahle meinen Strom seit 11 Jahren selber. Und der PC war diese Jahre hinweg keine relevante Größe. Wie auch bei max. 3h Spielelast täglich.

Sind bei dir auch 20 Euro im Jahr bei 70 Watt mehr. :)

zeedy schrieb:
Warum wird dieser Schwachsinn so oft nachgeplappert?

Bei mir sieht das anders aus, der läuft da schon gern mal 4h in der Woche und am WE locker 12h durchgängig, auch gern afk ingame. Als Testrechnung mal 50 Stunden in der Woche, bei 70 Watt Mehrverbrauch sind knapp 50 Euro aufs Jahr gerechnet, macht bei 2 Jahren die eine Graka bei mir im System ist 100 Euro Mehrkosten durch den höheren Stromverbrauch.

Um deine Frage zu beantworten zeedy: "Weil es stimmt." ;)
 
Shehriazad schrieb:
Was weiß ich woher?
naja, zur tatsächlichen leistung der GTX960 gibts bisher noch keine tests, genausowenig zu den OC-eigenschaften, also abwarten. bei den "9,3GHz" speichertakt bin ich echt skeptisch.
 
Deathangel008 schrieb:
naja, zur tatsächlichen leistung der GTX960 gibts bisher noch keine tests, genausowenig zu den OC-eigenschaften, also abwarten. bei den "9,3GHz" speichertakt bin ich echt skeptisch.

Die 9.3 Ghz sind die "echte" Leistung der 7.2Ghz.

Bei der R285 ist die echte Leistung der 5.5Ghz nämlich auch 7.3Ghz.

Das sind keine OC Werte...beide Karten benutzen die 3. Generation Delta Color Compression...das macht den Ram nämlich 33% effektiver was die Geschwindigkeit angeht (und reduziert auch den Gddr Verbrauch ein kleines bisschen was der Grund ist warum die 285 mit 2GB ram überhaupt in UHD halbwegs spielen kann...ohne DCC würde da gar nichts gehen).


Und das die Benchmarks die es gibt wohl durchaus legit sind, erkennt man zusätzlich daran, dass AMD schon dagegen wettert. Und bisher waren solche "leak" benchmarks die zuuuuuufällig ne Woche vor release kommen immer gold richtig...
 
Zuletzt bearbeitet:
D3xo schrieb:
Nvidia präsentiert uns mit Absicht so eine schwache Karte und die Botschaft ist klar, kauft euch gefälligst eine GTX 970 !
Genau...viel besser als einfach gar keine Karte auf den Markt zu bringen - ein Geniestreich von Nvidia. :freak:
 
Sentionline schrieb:
Längerfristig sind AMDs aber im Nachteil, wenn man die Stromkosten einbezieht. Hab die HD4850 seit 2009 drin. 6 Jahre sind nun wirklich genug. Mein ganzer Rechner mit einem Phenom X3 8550 und HD4850 zieht in Spielen 280 Watt aus der Dose. Heute bekommt man ja einen doppelt so schnellen Rechner für um die 200€ das auch noch fast passiv gekühlt werden kann und nur 100W zieht. Ich kaufe nicht im Flatrate Hardware.

Die Hardware ist halt älter.
Die damalige 9800GTX war doch da recht ähnlich oder täusche ich mich da?
Alle 3-4 Jahre wird doch so oder so die GPU getauscht, merkt man auf der Stromrechnung aber da müsste man auch beim Staubsaugen auf die Zeit schauen. Ich persönlich achte nur auf Wärmeentwicklung im Rechner und da geben die sich alle nicht viel.
Hier ist der Stromverbrauch so oder so hoch aufgrund Warmwasser nur durch Strom, spielt für mich also keine wirklich große Rolle :D

Sentionline schrieb:
Auf 6 Jahre gerechnet hat mir Phenom + Radeon einiges in die Stromrechnung gezaubert. Das will ich nun ändern. Und das geht nur mit Intel + Nvidia. Auch wenn die Anschaffungskosten höher sind, rechnet es sich nach 2~3 Jahren.

Nimm nen Android HDMI Stick und nutz den für Office, Verbrauch max 10 Watt und Idle praktisch nichts.
Desktop Rechner nur für Spiele Einsatz, wenn du schon so einen Spar Kurs fährst :D


Sentionline schrieb:
Oder die Stromrechnung mal selber zahlen und nicht Mutti. Strom wird teurer, also müssen PCs sparsamer werden. Zumal es heute ja möglich ist mit 100 Watt zu spielen und nicht 450 Watt (Phenom X4 965 + GTX570).
Du wirst es nicht glauben, aber meine gesamte Wohnung (67qm) braucht bei maximal Beleuchtung in allen Räumen zusammen 20 Watt (allein die Hallogen Spots in der Decke brauchen nicht mehr 200 sondern 10 Watt). Beim PC muss ich nachziehen :D

Da sparst du bei neuen Haushaltsgeräten mehr z.b. Waschmaschine & Trockner. Da geht es dann nicht um 10 Watt sondern mal um 300Watt bis 1kW :p
Oder musstest du dieses Jahr nachzahlen und schiebst alles auf den Rechner ? :p:D
 
mfJade schrieb:
Sind bei dir auch 20 Euro im Jahr bei 70 Watt mehr. :)

Naja so Späße wie den PC ingame afk laufen lassen mach ich auch nicht. Aufm Desktop ist er auch lange Zeit, aber dank Zero Core Power beim ausgeschalteten Bildschirm und CoolnQuiet ist der Verbrauch dann auch zu vernachlässigen.
Jo und 20€ im Jahr sind ein Witz.

Das konsumier ich jeden zweiten Samstag in Form von vier Pint Guinness inkl. Trinkgeld im Pub, wenn der FCA auswärts spielt.
Ich halte auch Strom nicht für wirklich teuer. 15kWh sind ein Guinness. Geschenkt :D

Habs ja schon oft geschrieben: bei der Grafikkarte zählt für mich nur das P/L-Verhältnis. Ich bestimme für mich einen Betrag X, den ich auszugeben bereit bin, und dafür will ich max. Leistung. Energieverbrauch und Lautstärke sind bei allen aktuellen Karten derart im Rahmen, dass ich da nicht weiter drauf achten muss.
Und so Karten mit Titan im Namen oder eine GTX980 scheiden dann einfach aus. Warum 560€ für ne GTX980, wenn ich für max. 10% weniger Leistung in Form einer R9 290X oder GTX 970 170-200€ weniger bezahlen muss? Nun gerechnet an den MSI Gaming Modellen.

Meiner Ansicht nach völlig idiotisch.
 
mfJade schrieb:
Um deine Frage zu beantworten zeedy: "Weil es stimmt." ;)

Schwachsinn wird nachgeplappert weil es stimmt? :lol:

4 Stunden täglich zocken und 12h am Wochenende?... naja jedem das seine ^^
 
zeedy schrieb:
Schwachsinn wird nachgeplappert weil es stimmt? :lol:

4 Stunden täglich zocken und 12h am Wochenende?... naja jedem das seine ^^

Da du dich ja auf meine Aussage bezogen hast hab ich dir anhand des Beispiels gezeigt dass es stimmt. Das war keine generelle Rechtfertigung für Schwachsinn aber mein "Schwachsinn" stimmt nunmal wenn man die entsprechenden Rahmenbedingungen hat. Bei mir läuft die Bude nunmal nebenbei recht häufig. Bei jemandem der in der Woche 25h spielt rechnet sich eine Karte die 70W weniger verbraucht und 50 Euro mehr kostet auch noch auf 2 Jahre.

hrafnagaldr schrieb:

Ja klar, ich schau auch nicht auf den Strom wenn ich ne Karte kaufe, mich interessiert die Leistung die ich für ~300 Euro von NVIDIA bekomme. Passt die nicht dann wird nicht gekauft und gewartet bis eine stärkere Karte für 300 Euros kommt. Der Strom ist mir da Wumpe aber trotzdem schön wenn sie sparsam ist.
 
Zuletzt bearbeitet:
Daedal schrieb:
Genau...viel besser als einfach gar keine Karte auf den Markt zu bringen - ein Geniestreich von Nvidia. :freak:

Rofl, was hat NVIDIA bitte mit der GTX 960 zu verlieren ? Die Karte ist nichts anderes als ein Bauernfänger. Jeder schlecht informierte, der sich jetzt eine GTX 960 kauft wird spätestens nach 1 Jahr feststellen, dass die Karte nicht mehr ausreicht um aktuelle Spiele zu zocken und er wird wieder ein neue Graka kaufen müssen. Die Zielgruppe ist ja wohl mehr als eindeutig und für die informierten ist die Botschaft wohl auch klar. Mit der Veröffentlichung von der GTX 960 hatte NVIDIA nur eins im Sinn, nämlich die GTX 970 noch besser dazustellen. Ich bleibe bei meiner Aussage.
 
Finde schon, dass amd mit dem was sie sagen recht haben, aber ob man das öffentlich als Unternehmensmeinung darlegen muss steht auf einem anderen Blatt. Wie gesagt, liegt wohl am amerikanischen Geschäftsgebaren.

Ich als neutraler Nutzer dem es egal ist ob amd oder nvidia seinen Dienst im Pc verrichtet. Habe auch kurz überlegt auf die gtx960 zu warten, aber das mit den 2 gb vram und dem 128er Speicherinterface machte die Karte aus meinen Augen im Vergleich zur Konkurrenz uninterressant. Ich kaufe mir doch heute keine 200+- Euro Karte mit der ich im nächsten Jahr dann aktuelle Titel ruckelig Spiele oder stark in der Grafik beschneiden muss. Dann nehm ich lieber eine 750ti und rüste in 1-2 Jahren auf, eine r9 280x die höchswahrscheinlich mehr leistet und gleich teuer oder sogar günstiger ist oder greife zur 970 wo man wirklich was hat und eine Weile seine Ruhe.

Bei einem Auto mag das ja gelten und auch vernünftig sein, dass die Leistung nicht groß gesteigert wird dafür der Verbrauch massiv gesenkt. Die Geschwindkeitsbegrenzungen werden ja nicht von Jahr zu Jahr auf der Autobahn hochgesetzt. Aber bei einer Grafikkarte aus der Mittelklasse und bei immer anspruchsvolleren Titeln, kann man eben nicht nur auf den Verbrauch schauen, da muss auch eine Leistungssteigerung entsprechend her, ob gegenüber der Konkurrenz aus eigenem Hause oder der anderer Hersteller und das sehe ich bei der gtx 960 nicht als ausreichend an anhand der veröffentlichten Informationen. Letztendlich muss man aber wohl auf die ersten Tets warten.
 
Zuletzt bearbeitet:
Ist natürlich eine sehr logische Betrachtung die Folgekosten zu ignorieren, wenn es um Preis/Leistung geht. :freak:

Mal ein Beispiel

GTX960: 100% / 120W / 200€
R9 280: 100% / 200W / 175€

Die 280 hat beim Kauf ein besseres P/L Verhältnis. Jedoch sobald man beide Karte zum Spielen verwendet, wird dieses immer geringer. Nach einem Jahr mit 1092h (3h * 7Tage * 52Wochen), einer Differenz von 80W und 26cent pro KwH hätte man folgende Ausgabe getätigt:

GTX960: 100% / 120W / 200€ + 34,00€ = 234,00€
R9 280: 100% / 200W / 175€ + 56,76€ = 231,76€

Nach ca. 14 Monaten hat man das selbe P/L. Danach ist die GTX960 besser. Spielt man mehr als durchschnittlich 3h am Tag, wandelt es sich zu gunsten der GTX960. Bei weniger andersrum.
 
Jo...wegen Stromkosten sollte man den Verbrauch nicht betrachen.


Sondern wegen der Hitze und somit Lautstärke der Kühler.


Die GTX 960 kommt mit 120 Watt daher..und wird somit sogar noch mit 1 einzigen Lüfter leise zu kühlen sein...was den Stromverbrauch dann auch noch mal positiv beeinflusst.

Ne R9 285 wäre als Single fan ne totale Turbine..und 2 Lüfter machen immer mehr krach als 1...Lautstärke und Hitze mäßig wird die GTX 960 deutlich vorne liegen.

Gehen wir davon aus, dass die 960 die selbe HD performance an den Tisch legt (+-5%) wie ne 285. Dann macht sie das allerdings 50-70% effektiver da ne 295 immer noch mit 180-200 Watt TDP daherkommt.
 
Vollkommen zurecht,
128bit bei 2GB als Mittelklasse...........

750ti / 260x sind unterste Mittelklasse
------------------------------------------------------
Tja die 285 hat ein bessere kompressionsrate als die 280,
und im verbrauch auch noch ein wenig besser.

Bei Anandtech wurde das mal schön beschrieben:
285 2GB = 280 2,4-2,6GB.
 
Zuletzt bearbeitet:
Zurück
Oben