Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
guck dir doch die genannten games an. zumindest LoL läuft ja sogar auf ner Intel HD Graphics 4600 recht passabel
ansonsten würde ich auch bezweifeln wollen, dass mit ner R9 280X immer noch reserven für MSAA vorhanden sind; und den einsatz von AF anzupreisen ist genauso lächerlich, wo es doch kaum noch leistung frisst.
128-bit nun offiziell ... Damit ist die 960er wirklich unbrauchbar für mehr als Minecraft.
Für 200€ bekommt man schon ne 280X (25% schneller als die 285).
AMD schreibt tacheles - nvidia lockt unerfahrene Nutzer mit falschen Aussagen
Amd braucht den Mund doch gar nicht aufreißen, die haben mit der r9-285 einen nachfolger vorgestellt, der langsamer ist und weniger Sprecher hat als die r9-280. und das bei kaum niedrigeren Verbrauch und weniger oc-potenzial... Wer im Glashaus sitzt sollte echt nicht mit Steinen werfen....
Und bevor hier jemand was wegen fanboy usw. sagt, warten wir die Tests der GTX 960 ab, ich kritisiere auch nvidia gerne
Allerdings wird es schon schwierig die Karte zu kritisieren weil sie wahrscheinlich nicht mal 130w verbrauchen wird....
Bei weniger als halber 980er Rechenleistung (halb soviele SPs und weniger Takt) erwartet man einfach auch die halbe Bandbreite. So wie bei 270X zu 290X.
Günstigere Modelle bedeuten nunmal auch weniger Leistung. Tada, neue Erkenntnis, wer mehr Leistung will, muss mehr zahlen oder länger warten.
Die 760 ist aber auch schon ein Stück schwächer als die 280. Die 960 wird wohl beim 285-280X Niveau landen.
Und wenn man 760 vs 280 setzt sehe ich bis auf die paar mehr Watt Stromverbrauch der 280 nur Vorteile (schneller, mehr VRAM, dickeres SI). Und die 960 scheint bis auf die Tatsache des noch geringeren Strombedarfs nichts besser zu machen.
Die 128Bit sind für mich ein KO.
Max FPS ist mir auch wurscht, ich schau immer auf min fps und avg, da werden die 128Bit abstinken...
evtl kommt ja ein 192Bit raus gab es ja auch oft. Das wäre für ein Maxwell was feines.
Finde es schade wenn nicht sogar armselig von AMD sich auf so ein niedriges Niveau zu begeben. Nicht AMD beurteilt die GPU Leistung der Konkurrenz sonder wir Kunden und die Fachpresse.
Dat Ding wird sicherlich gut werden, nur wieviel wird es kosten? Unsympatisch fand ich damals die Nvidia GeForce 6600GT mit seinem 128Bit. Die flog so schnell ausm Rechner wie die Ati Radeon 9800XT (256Bit) wieder reinkam.
Ich werde meine HD4850GS trotzdem gegen eine GeForce GTX750Ti ersetzen. Mit 60 Watt maximalverbrauch ist das ding einfach nur Porno in allen belangen gegen die AMD Konkurrenz. Vor allem auch in der Jahres Endabrechnung der Öko-Strom Versorger.
AMD zieht einfach zu viel aus der Dose, egal ob man es bei den Prozessoren oder bei den Grafikkarten betrachtet. Ich würde bei denen ja auch mal gerne ein Prozessor kaufen, aber über 125 Watt für einen i3 Konkurrenten, das ja weniger als die Hälfte zieht, ist einfach für mich ein K.O. Kriterium. Mama zahlt meine Rechnungen nicht (-mehr).
Intel Pentium + GTX750Ti = Spielbar, bezahlbar und günstig im Betrieb (100W)
AMD FX + Radeon R7 265= Spielbar, bezahlbar, exorbitant teuer im Betrieb (300W).
Ich verstehe das noch nicht so richtig. Kann mir das Jemand erklären? Die x Jahre alten Gtx 560, 660 und 760 haben alle schon eine Speicherschnittstelle von 256-bit. Warum hat jetzt die 960 nur 128 bit? Man möchte doch generell schon eine höhere Speicherbandbreite haben? Selbst die 560 hat schon 128GB/s.
Oder ist es erst bei z.b. 3GB+ sinnvoll eine höhere Bandbreite zu haben?
Die Diskussion mit den 128 Bit Speicherbus gibt es doch schon seit über 10 Jahren z.B bei der ATi 9600/9800er.
Bisher hat sich die Busbreite aber nie negativ ausgewirkt, daher mal abwarten was die Karte wirklich leistet.
Vielleicht sollte die Geschäftsführung von AMD die Punkte mal mit der Geschäftsführung von NVIDIA besprechen. Da sind ja durchaus konstruktive Vorschläge dabei, die NVIDIA umsetzen könnte. Wenn AMD und NVIDIA an einem Strang ziehen, haben alle was davon. Also in erste Linie zwar NVIDIA, aber das macht ja nichts.
Lange Rede, kurzer Sinn. Die Vorschläge waren ja mit Sicherheit nicht an NVIDIA gerichtet, sondern sollen aus Marketingsicht den Käufer dazu bringen, doch lieber keine GTX 960 zu kaufen. Und wenn ich als Firma schon nicht in der Lage bin, gute und solide Werbung (oder gar Produkte?) für meine eigenen Produkte zu machen, so müssen halt die Konkurrenzprodukte drunter leiden. Und zu Recht! Es kann ja wohl nicht sein, dass NVIDIA mit seinem 128-Bit Speicherinterface einer der AMD-Domänen zunichte macht und der Welt vorführt, dass ein 256-Bit Speicherinterface in dieser Preisregion für die avisierte Leistung gar nicht notwendig ist.
Um den berühmten Autovergleich auszupacken: Mir ist das Auto der Firma X unsympathisch, weil es von 0 auf 100 km/h mit seinen 120 PS nur 5 Sekunden benötigt. Schaut her! Wir haben 240 PS und schaffen damit die 0 auf 100 km/h in 4,8 Sekunden. Okay, der Spritverbrauch ist dabei um 60 % höher. Aber hey! Nur 120 PS - was sind das für Flaschen?
zumindest bei kepler hat es sich durchaus bemerkbar gemacht. einziger unterschied 660ti zu 670 war das SI, 192 vs 256, und das hat schon gut 15% leistung ausgemacht.
Ich verstehe das noch nicht so richtig. Kann mir das Jemand erklären? Die x Jahre alten Gtx 560, 660 und 760 haben alle schon eine Speicherschnittstelle von 256-bit. Warum hat jetzt die 960 nur 128 bit? Man möchte doch generell schon eine höhere Speicherbandbreite haben? Selbst die 560 hat schon 128GB/s.
Oder ist es erst bei z.b. 3GB+ sinnvoll eine höhere Bandbreite zu haben?
Maxwell geht knapp doppelt so effizient mit der Bandbreite um als Kepler:
The results are impressive. A Maxwell-based GPU appears to deliver 25% more FPS than a Kepler GPU in the same price range, while at the same time reducing its memory bandwidth utilization by 33%. Stated differently, on a per-frame basis, the GeForce GTX 750 Ti needs half of the memory bandwidth in the Metro: Last Light benchmark.
Dazu kommt, dass Maxwell-Varianten weniger Ausführungseinheiten haben als vergleichweise Kepler-Karten. So hat die GTX960 nur 1024 Cuda Cores gegenüber der GTX770 mit 1536. Maxwell kann also mit weniger Bandbreite ähnliche Leistung erreichen, weil a)weniger Ausführungeinheiten gleiches leisten und b) die Architektur effizienter mit der vorhandenen Bandbreite umgehen kann.
Ich denke die R9 285 ist schlichtweg Resteverwertung für die Chips die die Qualität für den iMac 5k nicht schaffen. Und ich finde AMD hat auch Recht, 128 Bit ist nicht so wirklich doll für Mittelklasse, Komprimierung hin oder her. Man sieht ja schon seit Jahren, dass Nvidia vor allem bei hohen Auflösungen den kürzeren Zieht.
...auch wenn es "unattraktiv" heißen soll...sehr arm von AMD. Ist ja aber in den USA nicht unüblich, für die meisten in Deutschland (mich eingeschlossen) nicht so dolle...erst recht, wenn nichts dagegen geboten ist...wie es bei AMD im Ganzen ist.
Bin wirklich kein Nvidia/Intel Fanboy!!! Die Leistung stimmt halt nicht.
Mir ist es eigentlich total Schnuppe was die GTX 960 leistet....aber ich muss jetzt schon sagen dass ich gespannt bin auf erste echte Benchmarks. Und wenn nVidia dann AMD vorführen sollte, werde ich lauthals lachen über die Lüfterjungs hier und anderorts.
Diese Hasserei kann absolut garnichts - etwas Spontanität kann nie schaden...