News AMD schießt gegen die GeForce GTX 960

DirtyOne schrieb:
Ich bin ja nun kein AMD Fanboy, aber wo sie Recht haben, haben Sie recht!
ja, 2GB sind in dem bereich nicht allzu üppig bemessen. aber ist es nicht etwas lächerlich von AMD, sich über die ungenügende speicherausstattung der GTX960 zu mokieren, wo man selber erst "vor kurzem" mit der R9 285 eine karte vorgestellt hat, welche auch nur 2GB hat und, noch schlimmer, die nachfolge einer karte mit 3GB antritt?

ich will die GTX960 hier wirklich nicht in schutz nehmen, aber das verhalten von AMD finde ich hier einfach nur peinlich.
 
mfJade schrieb:
In deinem ersten Beispiel hast du eine Mittelklasse-Graka von NVIDIA mit dem absoluten HighEnd von einem Jahr zuvor verglichen, der Vergleich hinkt.

Wo ist und war denn die R7 265 absolutes High-End gewesen? Das ist eine umbenannte Radeon HD 7850? Die war nicht High-End, sondern die 7990, 7970 und die 7950 waren es.

XShocker22
 
zeedy schrieb:
Doch und Doch ;)
Schon in 1080p ist eine 290X minimal schneller als die 970 Ref. Mit steigender AUflösung wird der Abstand größer. Das musst du auch als Besitzer einer 970 akzeptieren.
http://ht4u.net/reviews/2014/palit_geforce_gtx_970_jetstream_im_test/index39.php

Eine kühle und leise R9 290X, wie die von Sapphire kostet 325€. Entsprechende Modelle einer 970 sind nicht billiger.
http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-18.html

https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

Etc etc.

Ein ExEquo geht vielleicht durch je nach Testsetup/Toleranzen aber keinesfalls ein "besser". Und ich rede von den Einstiegsvarianten und nicht von irgendwelchen OC Superduper Mega Varianten - deshalb auf Geizhals 307€ fuer die billigste 970er und 313€ für die billigste 290X.

Danke, habe fertig. Und das muss jeder akzeptieren, nicht nur 970er Benutzer. Auf jeder Plattform die selbe Märchenhudelei hier......
 
mfJade schrieb:
In deinem ersten Beispiel hast du eine Mittelklasse-Graka von NVIDIA mit dem absoluten HighEnd von einem Jahr zuvor verglichen, der Vergleich hinkt.
Damals kam Stronghold 2 raus, gleich dazu hab ich ne 9800XT gekauft. Als die 6600GT gehyped wurde, hab ich diese dann gekauft. Die Flog sehr schnell raus wieder. Laut Tests war das Ding ja gut. Nur nicht in meinen Augen, die Frames waren Deutlich geringer, auch in Dark Messiah.
 
Ja, einfach mal abwarten und Tee trinken. Mal schauen, was die ersten Reviews sagen.

Marketinggebashe ist doch nichts neues, ob das jetzt ein paar Tage vor dem launch passiert oder danach ist doch egal.
Ich bin mir sicher, dass AMD und NV sehr gut bescheid wissen über die Performance des Anderen.


Coca_Cola schrieb:
Die Diskussion mit den 128 Bit Speicherbus gibt es doch schon seit über 10 Jahren z.B bei der ATi 9600/9800er.
Bisher hat sich die Busbreite aber nie negativ ausgewirkt, daher mal abwarten was die Karte wirklich leistet.

deine Erinnerung täuscht dich bzw. du verwechselst da gerade die Speichermenge mit der Anbindung. Ob man damals 128MB oder 256MB hatte war relativ egal. Das Interface war eine ganz andere Sache. Die 9600Pro/XT gab es eh nur als 128Bit Ausführung. Die 9800SE hingegen kam mit 128bit und 256bit (später auch dubiose 128Bit Pro/XTs):
http://www.nestor.minsk.by/kg/2004/01/kg40121.html - sry was anderes hab ich gerade nicht gefunden

Der Unterschied war gewaltig! Das lag aber daran, dass die Bandbreite hier klar limitiert hat. Ob das heutzutage immernoch der Fall ist kann man kaum sagen. Gibt ja keine Performance-Karten mehr mit gleicher GPU aber mit unterschiedlichen Speicheranbindungen.

Wenn man einer 970 ein 128er Interface geben würde, würde die Bandbreite mit Sicherheit limitieren (meine persönliche Einschätzung). Aufgrund der deutlich schwächeren GPU der 960 könnte ich mir aber vorstellen, dass die Auswirkungen gering bis garnicht vorhanden sind.
 
Zuletzt bearbeitet:
Sentionline schrieb:
Mein Favorit GTX750Ti hat 128Bit, zieht 60 Watt maximal und kostet 125€. Eine Radeon R7 265 hat 256 Bit, zieht 140 Watt und kostet 125€.

Auf ein Jahr hochgerechnet bei Spielen;

R7 265 => ca. 120 Watt x 4 Stunden x 5 Tage x 4 Wochen x 12 Monate = 32,26€
GTX750Ti=> ca 55 Watt x 4 Stunden x 5 Tage x 4 Wochen x 12 Monate = 14,78€

Wenn schon so kleinlich, dann bitte genaue Zahlen. Bei deinen Werten zur 750Ti liegt die schon immer gut 10% unter dem, was Tomshardware gemessen haben, bei der AMD hast dann höhere Werte genommen.
Also Tomshardware hat 118W für die R7 265 und 62W für die 750Ti gemessen (Gaming). Peak bei 138 respektive 68W. Jeweils Referenztakt. Werte der R7 265 sind von der R9 270 übernommen, da die lt. Tomshardware absolut identischen Verbrauch haben.

Wobei ich keine der Karten für ernsthaftes Zocken herannehmen würde. Zwischen einer R9 290 und ner GTX970 ist der Unterschied in absoluten Watt dann noch fast identisch, prozentual aber wesentlich weniger und man hat einen deutlichen Preisunterschied zwischen den Karten.

In dem 125€ Segment ist die 750Ti aber die bessere Karte, zweifelsohne. Nur eben dennoch zu langsam.
 
Zuletzt bearbeitet:
Plitzkrieg schrieb:
Moment mal ... hat AMD dort etwa die 260x als extrem unsympatische Grafikkarte geoutet?

Warum 260X? Die liegt in der Leistungskategorie noch ne Stufe niedriger. Meinst wohl ne 270(x), aber da stimmts ja wieder.
 
Ich frage mich ja, wieso AMD beim Speicherinterface aufgehört hat. Da gibt es noch soviel mehr, was man vergleichen und womit man die GTX960 als unattraktiv hinstellen kann:
Stromverbrauch: 180W > 120W
Cores: 1792 > 1024
Die Size: 375mm^2 > ~230mm^2

Da bekommt der Kunde doch einfach mehr für sein Geld.


Und eventuell kommen auch zeitnah 4GB Karten: http://preisvergleich.hardwareluxx....a-geforce-gtx-960-ssc-4gb#tab:spezifikationen

Gut, das wäre dann wirklich Ironie des Schicksals.
 
Zuletzt bearbeitet:
Yoshi_87 schrieb:
Wenn ich mir so die Preise der GTX 970 anschaue sehe ich ehrlich gesagt auch keinen Grund eine GTX 960 zu nehmen. :D

Nichtsdestotrotz sollte es den meisten ja egal sein da sie eh eher Intel im PC stecken haben. Zumindest wenn sie sich eine Nvidia karte holen.

Was hat eine Intel CPU mit nvidia und amd zu tun? Klär uns doch mal auf.
 
Daedal schrieb:
Das ist mal wieder typisch CB. Ihr solltet gänzlich darauf verzichten englische Quellen zu nutzen, da offensichtlich niemand in eurer Redaktion in der Lage ist korrekte Übersetzungen zu liefern. Und es trifft immer AMD bei den Übersetzungsfehlern, die dann schlecht da stehen...seltsam, nicht wahr? Nach Korrekturen der Forenuser stellt sich das ganze dann plötzlich anders dar, und wird vielleicht 2 Tage nach Meldung unauffällig korrigiert.

Ich frage mich ehrlich wie man AMDs Marketing kritisieren soll, wenn das hier in deutschen Redaktionen schon völlig verfälscht wird?
Tja, schon seltsam wie oft CB hierbei auffällt. Und nicht nur mir. Wie oft hat man CB vorgeworfen Nvidia zu bevorzugen? Ich mein warum bleibt man nicht einfach journalistisch korrekt und bietet keine Grundlage für solche Vorwürfe. Ich zumindest suche nicht danach und habe das nun wirklich nicht nötig. Eine so bekannte deutsche IT Seite sollte doch Interesse daran haben, einen mögichst guten Ruf zu haben.

Btw, die Kollegen von PCGH haben das Wort gleich als "unattraktiv" verstanden.

Im übrigen begrüße ich diese Art von Marketing nicht, aber sie scheint ja in den USA nicht so ungewöhnlich zu sein. Außerdem sollte man dann einfach mal zusammenfassen, was Jen Hsun Huang in den letzten Jahren so gequasselt hat.

@Sudden, ich sagte schneller, nicht besser ^^ ;-) ^^
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
Wobei ich keine der Karten für ernsthaftes Zocken herannehmen würde.
1920x1080 hab ich am Fernseher, ich seh da einfach nix obwohl ich nur 2 Meter weg sitze. Alles irgendwie zu klein. Muss immer auf 1280x720 runterschrauben und mit AA ist die Welt halb so schlimm. Nein ich trage keine Brille.

Und bei den standard Monitoren von heute sind ja 1366x768 oder 1600x900 angesagt. Für diese fälle bietet die GTX750Ti in jedem Fall immer spielbare Framezahlen. Du hast natürlich recht, wenn man 4k in Spielen braucht, mit einer OP Brille 70cm weg vom Bildschirm, hab ich keinen Einwand gegen eine GTX970. Die braucht man wohl um die DNA der Spieletexturen zu analysieren.
 
Zuletzt bearbeitet:
@zeedy
Ob schneller oder besser ist ebenfalls auslegungssache (^^) ... ;-)
 
Unsympathisch ist die Karte AMD nur deswegen, weil sie Marktanteile übernehmen könnte. Was die Karten leisten, werden die Tests dann zeigen.
 
Sentionline schrieb:
Und bei den standard Monitoren von heute sind ja 1366x768 oder 1600x900 angesagt. Für diese fälle bietet die GTX750Ti in jedem Fall immer spielbare Framezahlen. Du hast natürlich recht, wenn man 4k in Spielen braucht, mit einer OP Brille 70cm weg vom Bildschirm, hab ich keinen Einwand gegen eine GTX970. Die braucht man wohl um die DNA der Spieletexturen zu analysieren.

Naja das sind Notebook Displays. Ich hab einen Kumpel, der spielt zwar in 1920x1080, aber nur Dota2 und absolut nix anderes. Das läuft mit einem AMD A10 ganz prächtig, da brauchts überhaupt keine dedizierte Grafikkarte. Von daher eh immer subjektiv.
Ich will aber bald Witcher 3 in 2560x1440 Spielen, da ist dann leider etwas mehr Leistung notwendig.

Wenn ich bei meiner Mutti zu Besuch bin kann ich auch Diablo 3 auch auf einem Core 2 Duo E4xxx, 2GB RAM und 8800GT 512MB in 1680x1050 ganz gut spielen.
 
Nvidia ist meist teurer aber unterm Strich kann ich mich über beide nicht beklagen. AMD baut gute GPUs und Nvidia auch. :)
 
Tekkenklatsche schrieb:
Ein ExEquo geht vielleicht durch je nach Testsetup/Toleranzen aber keinesfalls ein "besser". Und ich rede von den Einstiegsvarianten und nicht von irgendwelchen OC Superduper Mega Varianten - deshalb auf Geizhals 307€ fuer die billigste 970er und 313€ für die billigste 290X.

Danke, habe fertig. Und das muss jeder akzeptieren, nicht nur 970er Benutzer. Auf jeder Plattform die selbe Märchenhudelei hier......
Am Besten ist es, habe ich gehört, wenn man uralte Test als Beleg heranzieht (mit alten Treibern, Referenz 290X usw.).
Fakt ist, dass eine 290X definitiv schneller eine 970 ist. Googlen darfst du dann selbst.
Welche Karte jedoch besser ist, muss sich jeder User sich selbst beantworten.
 
Sentionline schrieb:
Damals kam Stronghold 2 raus, gleich dazu hab ich ne 9800XT gekauft. Als die 6600GT gehyped wurde, hab ich diese dann gekauft. Die Flog sehr schnell raus wieder. Laut Tests war das Ding ja gut. Nur nicht in meinen Augen, die Frames waren Deutlich geringer, auch in Dark Messiah.

Die 66GT war richtig stark, wenn man nicht viel Geld ausgeben wollte. Dass sie schwächer als die 9800XT ist hätte dir aber zu dem Zeitpunkt klar sein sollen.

Edit: Wenn ich mir die Tests so auf CB ansehe war sie sogar deutlich stärker als die 9800XT, hab ich so garnicht mehr in Erinnerung. Von daher hast du leider falsch gehandelt :D

Edit2: Dark Messiah war SourceEngine und hier war der Unterschied doch sehr gering. Die Engine wurde ja auf ATI getrimmt ;)

XShocker22 schrieb:
Wo ist und war denn die R7 265 absolutes High-End gewesen? Das ist eine umbenannte Radeon HD 7850? Die war nicht High-End, sondern die 7990, 7970 und die 7950 waren es.

XShocker22

Lies die Beiträge von weiter vorn. Dann verstehst du meine Aussage. Btw hab ich mit absolutes High End nicht die Radeon sondern die NVIDIA in meinem Beitrag gemeint ;)
 
Zuletzt bearbeitet:
Phneom schrieb:
Nvidia ist meist teurer aber unterm Strich kann ich mich über beide nicht beklagen. AMD baut gute GPUs und Nvidia auch. :)
Längerfristig sind AMDs aber im Nachteil, wenn man die Stromkosten einbezieht. Hab die HD4850 seit 2009 drin. 6 Jahre sind nun wirklich genug. Mein ganzer Rechner mit einem Phenom X3 8550 und HD4850 zieht in Spielen 280 Watt aus der Dose. Heute bekommt man ja einen doppelt so schnellen Rechner für um die 200€ das auch noch fast passiv gekühlt werden kann und nur 100W zieht. Ich kaufe nicht im Flatrate Hardware.

Auf 6 Jahre gerechnet hat mir Phenom + Radeon einiges in die Stromrechnung gezaubert. Das will ich nun ändern. Und das geht nur mit Intel + Nvidia. Auch wenn die Anschaffungskosten höher sind, rechnet es sich nach 2~3 Jahren.
 
Zuletzt bearbeitet:
Zurück
Oben