News Kaby Lake: Intels Skylake-Nachfolger zum Großteil erst 2017

Lord_Helmi schrieb:
Der Abstand zur Topkarte ist immer größer geworden mit der Zeit.
Würde ich so nicht sagen, siehe unten.

Lord_Helmi schrieb:
Hast du ernsthaft ohne AA und AF gespielt? Mir war das schon damals extrem wichtig. Das hatte ich schon ab der GF4Ti immer aktiviert sofern es irgendwie ging.

Lord_Helmi schrieb:
Und jetzt nochmal nachweisen das 1280er in 2003 wesentlich mehr genutzt wurde als 1440p heute.
Du weißt selbst dass das unmöglich ist. Es gibt nicht mal genaue Zahlen wie heute 1440p genutzt wird. Woher auch?

Lord_Helmi schrieb:
Eine GTX 760 ist 50% von einer stinknormalen 780 entfernt, zur 780 TI sinds knappe 80%.
Sieh doch einfach ein, das die eigentliche preisliche Mittelklasse mit jeder Generation immer weiter von der Topkarte entfernt sitzt.
Da gibt aber auch noch Karten dazwischen. Eine 6800Ultra war auch knapp 70% schneller als eine 6600GT. Ich sehe da keinen wirklichen Unterschied.
 
Der Landvogt schrieb:
Hast du ernsthaft ohne AA und AF gespielt? Mir war das schon damals extrem wichtig. Das hatte ich schon ab der GF4Ti immer aktiviert sofern es irgendwie ging.
Mit AF schon, das kostete allerdings nicht viel. AA hat zb in Wc3 damals lästige Probleme verursacht (Blur bei Schrift) und da das einer meiner Haupttitel damals war, blieb es aus. Ansonsten Multiplayershooter (RtCW, Q3A, CS) -> da nutzt man eh kein AA/AF. Hängt alles von der Nutzung ab.
Heutzutage würde ich auch nicht darauf verzichten wollen, allerdings hat man mehr Rohleistung zur Verfügung und andere Spielgewohnheiten entwickelt.
Der Landvogt schrieb:
Da gibt aber auch noch Karten dazwischen. Eine 6800Ultra war auch knapp 70% schneller als eine 6600GT. Ich sehe da keinen wirklichen Unterschied.
War sie nicht. Benches zeigen im Mittel irgendwas zwischen 30 und 50% an.

30% bei 1024x768
40% bei 1280x1024
und knapp über 70% bei 1280x1024 mit AA/AF.
Wobei letzteres schon in VRAM Probleme und unspielbare Frameraten läuft, von daher praxistechnisch für die Karte damals nicht relevant war.

Nur mal so als Beispiel:
Eine GTX 980 TI ist DOPPELT so schnell wie eine GTX 960. In Full HD.
Eine GTX 780 TI ist 70% schneller als eine GTX 760. In Full HD.
Eine GTX 680 ist 50% schneller als eine GTX 660. In Full HD.
Eine GTX 580 ist 50% schneller als eine GTX 560. In Full HD.
Eine GTX 480 ist 50% schneller als eine GTX 460. In Full HD.
GTX 280 hat keine wirkliche Mittelklasse gehabt, nur Rebrands.
Eine GTX 8800 GTX ist ein Ausreißer mit 240% einer 8600 GTS. Betraf aber damals beide Lager durch Unified Shader.
Eine 7900 GTX ist 50% schneller als eine 7600 GT. In 1280x1024.
Eine 6800 Ultra is 40-50% schneller als eine 6600 GT. In 1280x1024.
Eine FX 5950 Ultra ist 50% schneller als eine FX 5700. In 1024x768.

Was fällt auf? Richtig, seit 2 Generationen erhöht sich der Unterschied zwischen ~200-250€ und >500€ Karten immer weiter. Und da sind noch nichtmal die Titans inkludiert.
 
Ich weiß nicht woher du deine Zahlen nimmst, aber eine 7900GTX ist min. 76% schneller als eine 7600GT. Wohlgemerkt ohne AA/AF, welches 2006 aber wirklich der letzte Hinterwäldler genutzt hat der sich eine solche Karte geholt hat. Da kommen wir bei 1280x1024 auf 107% Mehrleistung.
Noch schlimmer sah es bei ATI aus: die X1950XTX war sage und schreibe 250% schneller als eine X1600XT.
Quelle:
https://www.computerbase.de/2006-10/test-msi-geforce-7900-gto/22/

Mir sagt das nur eins: Unterschiede von knapp 100% gab es schon vor 10 Jahren und genauso habe ich es in Erinnerung. Klar, wenn man in 640x480 und ohne AA/AF spielt sind es nur 30%, wenn überhaupt. Aber machte das damals?
Zudem fällt auf, dass die einzelnen Generationen heute Scheibchenweise rausgebracht werden. Die 7600GT und 7900GTX kamen zeitgleich raus, eine Mittelklasse gab es zuvor nicht bei der GF7. Heute wird ein Chip für 2 Generationen verwendet (mit leichten Anpassungen).
 
Der Landvogt schrieb:
Ich weiß nicht woher du deine Zahlen nimmst, aber eine 7900GTX ist min. 76% schneller als eine 7600GT. Wohlgemerkt ohne AA/AF, welches 2006 aber wirklich der letzte Hinterwäldler genutzt hat der sich eine solche Karte geholt hat. Da kommen wir bei 1280x1024 auf 107% Mehrleistung.
Achja? 50%:
https://www.computerbase.de/2006-03/test-geforce-7600-gt-7900-gt-und-7900-gtx/25/

Man sollte schon die Karten beim Release vergleichen, logisch das sie später noch weiter auseinanderklaffen.
Der Landvogt schrieb:
Noch schlimmer sah es bei ATI aus: die X1950XTX war sage und schreibe 250% schneller als eine X1600XT.
Quelle:
https://www.computerbase.de/2006-10/test-msi-geforce-7900-gto/22/
Eine X1950XTX ist der Refresh(!) der Nachfolgegeneration(!)(X1900XT) der X1800XT. Die X1600XT gehört zur X1800XT Generation:
https://www.computerbase.de/2005-10/test-ati-radeon-x1800-x1600-und-x1300/23/
Es sind also nur 63%, wobei die Karte echt ein Reinfall war :(
 
Lord_Helmi schrieb:
Eine X1950XTX ist der Refresh(!) der Nachfolgegeneration(!)(X1900XT) der X1800XT.
Du solltest sowas schon überprüfen bevor du solch einen Unsinn verzapfst.
Aber wenn es dich beruhigt dafst du auch gerne die 1800er XT nehmen. Macht laut deinem verlinkten Test trotzdem 120%. Aber ich vergaß, man spielte ja 2005 und die folgenden Jahre ja nicht mit AA/AF. Und Karten wurden auch nur für ein paar Monate gekauft, nach einem Jahr hat man mit der eh nicht mehr gespielt... :freak:

Sieh doch einfach ein, dass deine Argumentation nicht greift und gut ist.
 
Der Landvogt schrieb:
Du solltest sowas schon überprüfen bevor du solch einen Unsinn verzapfst.
Ich? Wer kann denn die Generationen nicht auseinanderhalten?
X1800XT 5. Okt. 2005
X1600XT 5. Okt. 2005
X1900XTX 24. Jan. 2006
X1950 XTX 23. Aug. 2006
Es gibt keine wirkliche Mittelklasse zur X19xx. Genau wie es bei der 78xxer keine wirkliche Mittelklasse gab.
Der Landvogt schrieb:
Aber wenn es dich beruhigt dafst du auch gerne die 1800er XT nehmen. Macht laut deinem verlinkten Test trotzdem 120%. Aber ich vergaß, man spielte ja 2005 und die folgenden Jahre ja nicht mit AA/AF. .
UT 2004 23,4 fps
AoE 3 26,8 fps
SC 3 26,9 fps
Earth 2160 17,9 fps
Far Cry 33,8 fps
HL 2 31,3 fps
Doom 3 29,9 fps
Riddich 24,4 fps

Alles super spielbar du Genie. Super Argumentation, ich gratuliere. Am besten mal schauen ob es überhaupt SINN ergibt bestimmte Sachen zu vergleichen bevor man den großen Zahlenzampano raushängen lässt. Aber hey du spielst bestimmt heute noch gerne mit 25 fps, aber wehe es ist kein AA/AF an.

Der Landvogt schrieb:
Und Karten wurden auch nur für ein paar Monate gekauft, nach einem Jahr hat man mit der eh nicht mehr gespielt... :freak:
Du kannst mir erzählen was du willst, damals hat man häufiger aufgerüstet und es hat auch Sinn gemacht. Es kam jedes Jahr ne neue Generation und 2x 200€ ist weniger als 1x 500+ € und man hat am Ende sogar mehr Leistung und weniger Miese beim Wiederverkauf. Sieht heute leider ganz anders aus.

Der Landvogt schrieb:
Sieh doch einfach ein, dass deine Argumentation nicht greift und gut ist.
Ich lach mich schlapp :)
 
Lord_Helmi schrieb:
Ich? Wer kann denn die Generationen nicht auseinanderhalten?
Da von neuen Generationen zu sprechen ist schon... realitätsfremd. Die hatte man damals also im Monatstakt rausgehauen?

Lord_Helmi schrieb:
Alles super spielbar du Genie.
Mit ner 1800XT? ;)

Lord_Helmi schrieb:
Du kannst mir erzählen was du willst, damals hat man häufiger aufgerüstet und es hat auch Sinn gemacht. Es kam jedes Jahr ne neue Generation und 2x 200€ ist weniger als 1x 500+ € und man hat am Ende sogar mehr Leistung und weniger Miese beim Wiederverkauf. Sieht heute leider ganz anders aus.
Es hat also mehr Sinn gemacht jedes Jahr 200€ auszugeben um festzustellen dass eh nichts gut gelaufen ist wie du ja selbst argumentiert hast?
Heute zahlst du für die Mittelklasse also auch nur halb so viel wie für Highend oder was? Z.B. 960 vs. 980Ti? Spielbar ist mit einer 960 also nichts?

Lord_Helmi schrieb:
Ich lach mich schlapp.
Ich mich auch. Bin raus aus dieser elenden Diskussion wo du mir weiß machen willst wie toll die Mittelklasse doch damals war, gleichzeitig argumentiert wie unspielbar sie doch war und dass alle paar Monate eine neue Generation rauskam. Beschwert sich, dass er heute nicht mehr jedes Jahr ne neue GPU kaufen muss um spielen zu können. Manchen kann man es einfach nicht recht machen.
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Da von neuen Generationen zu sprechen ist schon... realitätsfremd. Die hatte man damals also im Monatstakt rausgehauen?
In diesem speziellem Falle schon. Die X1900XTX ist auf jeden Fall kein wirklicher Refresh, da architekturtechnisch einiges signifikant geändert wurde. Die X1950XTX hingegen ist wieder ein normaler Refresh.
Der Landvogt schrieb:
Mit ner 1600XT, weißt du aber selber. Genau darum geht es ja, etwas als Vergleichskriterium zu nehmen von dem man weiß das es nicht erreichbar ist, ergibt keinerlei Sinn.

Der Landvogt schrieb:
Es hat also mehr Sinn gemacht jedes Jahr 200€ auszugeben um festzustellen dass eh nichts gut gelaufen ist wie du ja selbst argumentiert hast?
Mit AA/AF. Ohne lief es super, das ist genau das was ich dir die ganze Zeit beizubringen versuche.
Der Landvogt schrieb:
Heute zahlst du für die Mittelklasse also auch nur halb so viel wie für Highend oder was? Z.B. 960 vs. 980Ti?
Eine X1600XT hat damals weniger als 200€ gekostet, die X1800XT weit mehr als 500€. Das ist sogar weit weniger als die Hälfte :)
Der Landvogt schrieb:
Spielbar ist mit einer 960 also nichts?
Im Gegensatz zu damals ist heute mit der GTX 960 nicht mal überall Full HD/full details spielbar möglich.
Damals war mit einer Mittelklasse Karte wenigstens alles in 1280x1024 spielbar, sofern man AA/AF ausgelassen hat.

Der Landvogt schrieb:
Das freut mich :)
Der Landvogt schrieb:
Bin raus aus dieser elenden Diskussion wo du mir weiß machen willst wie toll die Mittelklasse doch damals war, gleichzeitig argumentiert wie unspielbar sie doch war und dass alle paar Monate eine neue Generation rauskam. Beschwert sich, dass er heute nicht mehr jedes Jahr ne neue GPU kaufen muss um spielen zu können. Manchen kann man es einfach nicht recht machen.
Ich wollte dir nur die extreme Diskrepanz der Geschwindigkeitssprünge ins Gedächtnis rufen. Damals konntest du dich darauf verlassen, dass spätestens mit der nächsten Mittelklasse der Titel flüssig in der Standardauflösung lief.
Einen Titel der mittlerweile >2 Jahre alt ist (Crysis 3, AC 4, Rome II) nichtmal in Full HD flüssig auf die Bildschirme zu zaubern zu können, sowas hätte es damals nicht gegeben, da die Leistungsdifferenz nur 50% und nicht 100% betragen hat. Das ist alles was ich dir vermitteln zu versuche.
 
Wow bei den lestzten Posts war echt ein Testosteron-Überschuss am Werk :D
Einigen wir uns, dass sich das Marketing der Grafikkarten im Laufe der Zeit leicht verändert hat. Momentan ist es ohnehin nicht ganz vergleichbar, weil beide Hersteller eine Fertigungs-Generation (20 nm) überspringen und direkt auf 14/16 nm springen wollen. Dadurch gibt es zur Zeit mehr Refreshs und nichts wirklich neues. Vermutlich ist das auch eine Entwicklung, die wir den Smartphones, Tablets und Konsolen zu verdanken haben. Damals spielte man vor allem am PC, heute hat man die eben genannten Geräte, mit denen man viel Zeit verbringt.
 
Zurück
Oben