News AMD schießt gegen die GeForce GTX 960

an berkeley..

Die 970 und die 290X liegen viel viel enger beieinander!
Nur um einige Beispiele zu nennen:

Shadow of Mordor: GTX 970 65 fps, 290X 63fps
Battlefield 4: GTX 970 76fps, 290X 72fps
Crysis 3: GTX 970 59fps, 290X 47fps
Far Cry 4: GTX 970 63 fps, 290X 50fps

Und fast immer liegt die 970 vorne also woher hast du deine Ergebnisse? o.O
Selbst bei jedem Benchmark auf Youtube oder im Internet sind diese Aussagen bestätigt..
 
Zuletzt bearbeitet:
berkeley schrieb:
Falscher Fakt ist, dass eine 290X definitiv schneller als eine 970 ist.

Fakt ist, dass eine 290X definitiv nicht schneller als eine 970 ist.

so wäre es richtig... einfach mal die fanboy brille absetzen...

denn : eine 290X ist nicht schneller

berkeley schrieb:
wenn man uralte Test als Beleg heranzieht (mit alten Treibern, Referenz 290X usw.)

aber ja die 970 ist so uralt... oh wait , NOT ...
die karte gibt es jetzt wie lange 4 Monate ? das ist natürlich "uralt"...
und das thema treiber ? wie lange hatte amd zeit den treiber für die r9 290 anständig anzupassen ?
anderhalb jahre ?
 
Ich verstehe diese ganze Diskussion über den Stromverbrauch nicht. Als wenn wir dadurch den Planeten retten, wenn eine GPU 100W weniger braucht. Geht Joggen und macht die Kiste aus. Das hilft vielleicht ;)


Ich hab da noch eine kurze Verständnisfrage:
Warum reduziert Nvidia überhaupt den Speicherbus ?
Kosten 128 Bit in der Herstellung soviel weniger wie 256 / 384 / 512 Bit ?
 
Sontin schrieb:
Ich frage mich ja, wieso AMD beim Speicherinterface aufgehört hat. Da gibt es noch soviel mehr, was man vergleichen und womit man die GTX960 als unattraktiv hinstellen kann.

Weil AMD mit HBM das Problem Speicherinterface und dessen Stromverbrauch gelöst hat mit den kommenden GPUs. Das ist der Auftakt zum Launch und zum Marketing mit den stärken die HBM bringen wird in der kommenden GPU Generation.
 
GUN2504 schrieb:
Ich verstehe diese ganze Diskussion über den Stromverbrauch nicht. Als wenn wir dadurch den Planeten retten, wenn eine GPU 100W weniger braucht. Geht Joggen und macht die Kiste aus. Das hilft vielleicht ;)
Stromrechnung. Auch im Idle sind AMDs nicht die Kracher.

GUN2504 schrieb:
Kosten 128 Bit in der Herstellung soviel weniger wie 256 / 384 / 512 Bit ?
Mehr Leiterbahnen + feinere Strukturen + teurere Platinenherstellung = mehr kosten
 
Und deutlich mehr Stromverbrauch für DDR SI. Im Idle unterscheiden sich die GPUs so gut wie gar nicht.
 
berkeley schrieb:
Am Besten ist es, habe ich gehört, wenn man uralte Test als Beleg heranzieht (mit alten Treibern, Referenz 290X usw.).
Fakt ist, dass eine 290X definitiv schneller eine 970 ist. Googlen darfst du dann selbst.
Welche Karte jedoch besser ist, muss sich jeder User sich selbst beantworten.

Ein 1 1/2 Monate alter Test soll alt sein? Achja. Die Omegatreiber sind vll. lustig, reißen das Ruder aber nicht mehr rum.

In deinem geposteten Test wird eine 970er mit 1187 Mhz Takt angegeben ( vermutlich zur Manipulation ). Selbst meine kleine Zotac hat 1240Mhz GPU Takt und das ist eine der allerschwächsten. In Toms Hardware Test werden keinesfalls nur Referenzkarten der 290X herangezogen falls du schlecht siehst.

Jeder Test/Tester ist anders und der _einzige_ Fakt ist dass in dem Duell 970 vs 290X keinen Sieger gibt. Weder im Preis noch in der Leistung....Temperatur und Leistungsaufnahme lassen wir mal außen vor. Und ob ich jetzt bei 4K 25 fps oder 22 fps habe ist mir auch schon egal....

Aber das darf trotzdem jeder sehen wie er will. Google so lang bis du das Gegenteil bestätigst und umgekehrt.
 
Sentionline schrieb:
Stromrechnung. Auch im Idle sind AMDs nicht die Kracher.

Wird gern als "Killerargument" genommen. Mir wäre es ehrlich gesagt egal wieviel Strom meine Graka verbraucht, ich bau mir keine AMD in den Rechner weil ich die Treiber und das CCC nicht mag, aus dem gleichen Grund aus dem alle Windows8--Hasser Win8 hassen, ich komm damit nicht klar :D

Zumal der Mehrpreis bei NVIDIA der Stromersparnis entspricht.
 
GUN2504 schrieb:
Ich verstehe diese ganze Diskussion über den Stromverbrauch nicht. Als wenn wir dadurch den Planeten retten, wenn eine GPU 100W weniger braucht. Geht Joggen und macht die Kiste aus. Das hilft vielleicht ;)
?

Werde einfach etwas älter und lerne über den Tellerrand zu denken, dann wirst du das auch verstehen.
 
SuddenDeathStgt schrieb:
@zeedy
Ob schneller oder besser ist ebenfalls auslegungssache (^^) ... ;-)
Äh eben nicht ^^ Schneller ist schneller ;-)

kristwi schrieb:
Und fast immer liegt die 970 vorne also woher hast du deine Ergebnisse? o.O

Von ht4u ;) Alles top aktuell und ein Leistungsrating aus 18 Spielen
http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index39.php

mfJade schrieb:
Zumal der Mehrpreis bei NVIDIA der Stromersparnis entspricht.

Warum wird dieser Schwachsinn so oft nachgeplappert?
 
Zuletzt bearbeitet:
mal schauen wie sich die gtx960 schlägt und wie die designs sind. vllt löst sie meine hd7850 1gb ab.
 
Superzero schrieb:
Werde einfach etwas älter und lerne über den Tellerrand zu denken, dann wirst du das auch verstehen.
Gott oh Gott, setzt du mal Prioritäten und fange lieber an andere Altgeräte auszumisten und mit neueren Energiesparenderen Geräten auszustatten, oder Ersetzt mal dein Leuchtobst, da kann man mehr Energiesparen als jetzt wegen 10W mehr im Idle sich aufzuhängen.:freak:
 
Nvidia versucht hier über die Medien schon seit gefühlten Monaten einen Hype zu schüren, dabei ist die Karte IMHO einfach nur langweilig.

Habe ich gar kein Interesse dran. Das einzige, womit sie punkten kann ist der Stromverbrauch.

Ansonsten mäßige Leistung zu gesalzenen Preisen.

Wer Leistung sucht greift gleich zur 970/980, wer Mittelklasse sucht kann auch zur Vorgängergeneration greifen und kommt dabei P/L-mäßig sicher besser weg.

Würde mich viel mehr über neue Infos zum GM200 bzw. zu ner neuen Titan freuen.

MfG
 
GUN2504 schrieb:
Ich hab da noch eine kurze Verständnisfrage:
Warum reduziert Nvidia überhaupt den Speicherbus ?
Kosten 128 Bit in der Herstellung soviel weniger wie 256 / 384 / 512 Bit ?

Grundsätzlich gilt:
Ein schmaleres Speicherinterface verbraucht wesentlich weniger Fläche (bzw. Transistoren) auf dem Chip. Damit wird die GPU in der Herstellung günstiger und verbraucht auch weniger Strom. Darüber hinaus wird auch das PCB (die Leiterplatte) der Grafikkarte weniger komplex (es müssen weniger Leitungen von der GPU zu den Speicherbausteinen laufen) und es werden entsprechend weniger Speicherchips benötigt.
=> Je kleiner das SI, um so sparsamer und billiger kann die Grafikkarte sein.

Eigentlich hat Nvidia den Speicherbus auch nicht reduziert. GPUs dieser Klasse ("xx6") haben bei Nvidia schon länger nur 128Bit. Die nächst größeren GPUs ("xx4") haben 256Bit und die großen Flaggschiffe ("xx0") 384Bit oder manchmal sogar 512Bit (GT200).
(Dabei gab es oft auch abgespeckte Varianten der jeweiligen GPUs, in denen Teile des Speicherinterface deaktiviert sind.)

Relativ neu ist nur der Trend, dass die kleineren GPUs in "größeren" Karten genutzt werden. Also dass nicht mehr die "xx0"-GPUs in den High-End-Karten stecken, sondern die "xx4" (z.B. bei der GTX980 und der GTX680) und demenstprechend findet man jetzt auch die noch kleineren "xx6" in den Mittelklassekarten. So wie jetzt die GM206 in der GTX960. In der GTX560 steckte z.B. noch ein GF114 und dementsprechend war das SI 256Bit breit.
 
Superzero schrieb:
Werde einfach etwas älter und lerne über den Tellerrand zu denken, dann wirst du das auch verstehen.
Oder die Stromrechnung mal selber zahlen und nicht Mutti. Strom wird teurer, also müssen PCs sparsamer werden. Zumal es heute ja möglich ist mit 100 Watt zu spielen und nicht 450 Watt (Phenom X4 965 + GTX570).

Greffetikill schrieb:
Gott oh Gott, setzt du mal Prioritäten und fange lieber an andere Altgeräte auszumisten und mit neueren Energiesparenderen Geräten auszustatten, oder Ersetzt mal dein Leuchtobst, da kann man mehr Energiesparen als jetzt wegen 10W mehr im Idle sich aufzuhängen.:freak:
Du wirst es nicht glauben, aber meine gesamte Wohnung (67qm) braucht bei maximal Beleuchtung in allen Räumen zusammen 20 Watt (allein die Hallogen Spots in der Decke brauchen nicht mehr 200 sondern 10 Watt). Beim PC muss ich nachziehen :D
 
Zuletzt bearbeitet:
Ich habe keine Zeit mich zu streiten (abgesehen von der Lust).
En3rg1eR1egel schrieb:
aber ja die 970 ist so uralt... oh wait , NOT ...
Hast du meinen Post gelesen?... oh wait, NOT...

Tekkenklatsche schrieb:
In deinem geposteten Test
Ich habe keinen Test gepostet, falls zu aber zeedy meinst; ja sein Test belegt, dass die ref. 970 der ref 290X eindeutig unterliegt. Das ist übrigens bei den Custom Modellen genauso ausgeprägt.

Achja, der Omega reißt eben doch einiges :)
 
Zuletzt bearbeitet:
@Sentionline du aber ich würde mal ganz frech ohne Zahlen zu kennen sagen, das mehr als 90% der Menschen in D-Land ein oder mehr Gerät/e haben was unglaublich viel strom zieht obwohl es schon Neuerungen gibt die den Stromverbrauch auf ein Minimum bringen könnten.

Ich finde das heuchlerisch das sich manche Leute hinter den Stromverbrauch verstecken wie als wäre es der große Bruder, nur weil Sie keine bessere Argumente haben (Und dann statt ein Smart einen A8 W12 fahren).
 
Ich brauch keine Tests abzuwarten weil eine Karte mit 128 bit und 2Gb keine Zukunftsperspektive hat. Es ist auch völlig uninteressant ob man damit im Jahr 2015 noch vernünftig Dota2 oder LOL zocken kann. Dota2 kann ich auch mit meiner jetzigen Karte in 1440p und 60 fps zocken, dass ist keine Kunst. Ich brauch eine Karte mit der ich Star Citizen auch vernünftig zocken kann, wenn es mal rauskommt und somit ist die GTX 960 genau so überflüssig wie die 285. Nvidia präsentiert uns mit Absicht so eine schwache Karte und die Botschaft ist klar, kauft euch gefälligst eine GTX 970 !
 
Sentionline schrieb:
Zumal es heute ja möglich ist mit 100 Watt zu spielen und nicht 450 Watt (Phenom X4 965 + GTX570).

Kannst du mal aufhören irgendwelche Zahlen auszuspucken die nicht im entferntesten stimmen? Meine Güte...


@D3xo wenn du Star Citizen spielen willst, kaufst du dir doch keine GTX 960 oder so... Da kommt entweder ne 970 oder ne 290 ins Spiel (mindestens).
 
Zuletzt bearbeitet:
Zurück
Oben