News Angeblich nur Hawaii-Karten mit neuer Architektur

Cool Master schrieb:
Aktuell ist es so das man einfach kein High-End für Spiele benötigt.

War doch früher auch nicht anders. Man brauchte auch vor 5 oder 10 oder 20 Jahren nicht unbedingt die allerneuste High-End-GPU, um die neusten Titel in gängigen Auflösungen zu spielen. Der Unterschied war nur, dass wenn man so eine High-End-Karte hatte, man die Qualitätseinstellungen (und oder Auflösung) entsprechend hoch drehen konnte.
Außerdem wurden halt aus den High-End-Karten 6-12 Monate später erschwingliche Mittelklassekarten (bzw. gab es eine neue Mittelklasse, die die selbe Leistung wie das alte High-End bietet), so dass dann auch Leute mit weniger Budget in den Genuss der gesteigerten Qualität kamen.
Und wer sich nicht mal alle z.B. 2-3 Jahre eine neue Mittelklassekarte leisten konnte, der drehte halt die Qualität so weit runter, das seine alte noch reicht und spielte weiter auf dem Niveau wie gewohnt.

Wer also Stagnation wollte, konnte die auch schon haben. Aber daneben ging es halt auch weiter und davon haben nicht nur die Spieler mit ausreichend Geld profitiert, sondern auch die GPU-Hersteller und Spieleentwickler, weil sie immer neue, wesentlich bessere Produkte anbieten konnten. Nur so entsteht Nachfrage. (Oder halt durch stark sinkende Preise.)

Wenn alles dauerhaft auf einem Niveau stehen bleibt, braucht sich keiner zu wundern, wenn die Verkaufszahlen dramatisch runter gehen. Dafür braucht es gar keinen Tablet-Boom.
Das betrifft nicht nur die Hardware, sondern irgendwann wird es auch schwer Argumente dafür zu finden, warum sich jemand Shooter XY in Version 21 anschaffen soll, wenn die 6 Jahre alte Version 15 schon genauso aussieht. (Klar ist Grafik nicht alles, aber rein inhaltlich und von der Spielmechanik usw. neue Maßstäbe zu setzen, ist nicht ganz einfach.)

Die PC-Spiele-Branche schaufelt sich mit dieser Stagnation ihr eigenes Grab. Mag sein, dass auch die Konsolen daran Schuld tragen, aber das ändert nichts an den Auswirkungen.

Außerdem würde ich das Holodeck halt gerne noch erleben. ;)
 
Herdware schrieb:
War doch früher auch nicht anders. Man brauchte auch vor 5 oder 10 oder 20 Jahren nicht unbedingt die allerneuste High-End-GPU, um die neusten Titel in gängigen Auflösungen zu spielen.

Ja ok da stimmt ich dir zu. Ich war vor 7-8 Jahren einer der ersten mit 1920x1200 und 24" dafür hat der Monitor auch gute 1200 € gekostet aber der läuft heute immer noch super auch wenn er das ein oder andere Watt weniger verbrauchen könnte :)

Ich habe eigentlich immer High End gekauft eben weil 1920x1200 damals doch noch recht exotisch war und man dafür eben leistung gebraucht hat. Heute packt 1080/1200 jede Mittelklasse Karte und High End ist halt für 27"+, so wie es damals für 24"+ der Fall war.

Ich mein wie man ja sieht High-End Kunden juckt das Geld nicht wirklich (zumindest hat es mich nie gejuckt dank gutem Ferien Job damals Hallo @ Daimler)

Aber wie du siehst hat man ja dank den Konsolen eine Stagnation da eben für die Masse 1080/1200 langt für die ~ 5% die High End wollen extra eine Karte zu Entwicklen und Herzustellen geht sau viel Geld raus was auch nie rein kommen wird. Nvidia und AMD machen ihr Geld nicht mit High-End sondern Mittelklasse+OEM. Deswegen waren, sind und werden High End Modelle immer kostspielig sein.
 
Cool Master schrieb:
Aber wie du siehst hat man ja dank den Konsolen eine Stagnation da eben für die Masse 1080/1200 langt für die ~ 5% die High End wollen extra eine Karte zu Entwicklen und Herzustellen geht sau viel Geld raus was auch nie rein kommen wird. Nvidia und AMD machen ihr Geld nicht mit High-End sondern Mittelklasse+OEM. Deswegen waren, sind und werden High End Modelle immer kostspielig sein.

Ich hab mir auch Anfang 2005 einen 23"-LCD mit 1920x1600 zugelegt.

Aber wie viele Spieler hatten vor 7-8 Jahren schon einen 1600/1920x1200? Das waren sicher auch nicht mehr als heute bei 2540x1440/1600. (Ich bin seit letzten Jah in diesem exklusiven Club. :) ) Trotzdem gabs damals High-End-Karten, die es möglich machten, aktuelle Spiele auf diesen Auflösungen zu spielen und es kamen in schneller Folge immer bessere Modelle, so dass irgendwann auch Mittelklasse-Karten dafür ausreichten.

Deshalb haben High-End-Karten heute eigentlich nicht weniger Daseinsberechtigung als damals. Ich hoffe, dass mit den Hawaii-Karten wenigstens überhaupt schon mal einigermaßen erschwingliche Single-GPU-Karten kommen, mit denen 1440p und Co. richtig Spaß machen. Aber dank der leidigen Stagnation werden die >FullHD-tauglichen Karten leider sehr viel langsamer in auch für 0815-Spieler erschwingliche Regionen rücken.
Auf Karten für 4k-Monitore wird man als Enthusiast wohl noch sehr lange warten müssen. :(
 
Hmm vor 7-8 Jahren war eher noch 1024x768 (15"-17") bzw. 1280x1024 (19") verbreitet (was man heute noch viel im Büro findet) aber klar sie waren schon vorhanden so ist es nicht, aber ich glaube das heute im vergleich dazu weniger Leute 1440 bzw. 1600 haben, da halt jeder nur auf den Preis achtet und kein guter 1440 unter ~ 600 € zu bekommen ist für 1600 sieht es noch krasser aus da diese erst ab 30" erhältlich sind.

Ich mein ich hoffe natürlich auch das halbwegs gute Karten kommen damit man 1440/1600 eine Chance geben kann (aus Spieler sicht), da ich bis ende des Jahres wohl auch zu diesem Club gehören werde da ich mir wohl nach meinem Hackintosh und nun gut einem Jahr testen ein iMac kaufen werde (oder ein MBP mit dGPU + 27" TB Display). Aber zur not kann man immer noch Downsampeln. Dafür haben Spiele ja extra den Fullscreen Window Mode.
 
john carmack schrieb:
Verstehe immer noch noch nicht warum sich hier einige über lächerliche 250W aufregen...

Die "freiwillige" Beschränkung auf ungefähr diesen Wert hat neben dem Verbrauch noch einen anderen Grund: Die Abwärme. Nahezu alles was die Karte verbraucht wird (in der GPU) in Wärme umgesetzt, und die muss dort dann erstmal wieder weggekühlt werden. Man sieht es ja seit einiger Zeit sehr schön, dass die Chips eher nicht am Takt- sondern am thermischen Limit laufen. Ansonsten wären die ganzen temperaturabhängigen Turbo-Modi auch fürn Arsch.
Wenn da jetzt auf einmal ein 400 W Chip daherkommt, dann kann man ihn entweder nicht voll ausnutzen weil er zu heiß wird, oder man muss sich eine massiv bessere Kühlung überlegen. Während selbst solche Zahlen für Wasser- und Hybridkühler (entsprechenden Radiator vorausgesetzt) noch machbar sind, wird dir eine halbwegs erträgliche Luftkühlung irgendwann die weiße Flagge hochhalten und ab dann gibts nur noch laut weil entsprechend schnell drehende Lüfter notwendig werden.
Man muss sich ja nur Temperaturen des FX9590 anschauen - ja man kann eine 200+ W CPU mit 5 GHz bauen, aber die platzt unter Last dann aus allen Nähten und mit gängigen Luftkühlern sieht man kein Land mehr. Bei ner entsprechend leistungsstärkeren Grafikkarte stünde man vor dem gleichen Problem (Dual-GPU-Karten zählen nicht weil die ihre Abwärme auf zwei Chips produzieren), nämlich wie bekommt man so viel Wärme ausreichend schnell von einer relativ kleinen Fläche weg.
 
Man sieht es ja seit einiger Zeit sehr schön, dass die Chips eher nicht am Takt- sondern am thermischen Limit laufen. Ansonsten wären die ganzen temperaturabhängigen Turbo-Modi auch fürn Arsch.

Das trifft vielleicht auf Nvidia zu. Die haben diesen komischen Temperaturmist doch eingeführt und jede findet es toll. Es gab Zeiten da haben 90-100° der GPU niemanden gejuckt auch nicht bei Nvidia (GTX480) und auf einmal ist das sooo ein Thema genauso wie der Stromverbrauch.

Meine 7950 1100 Core Clock verbrät bestimmt nicht wenig unter Last und trotzdem ist das Ding angenehm leise und wird nicht wärmer als 72° unter Last. Da ist noch viel Luft nach oben was Abwärme und leise Kühlung betrifft.

Ich sag jetzt nicht dass es mir egal wäre wenn das Teil 400 Watt verbraten würde, aber sogar eine GTX 480 konnte man leise kühlen (siehe AMP Edition) und wegen ein paar Watt unter Last sollte man nicht rumkacken. Da ist doch der idle Verbrauch wesentlich wichtiger.
 
Zuletzt bearbeitet:
@Dai6oro

Da muss ich dir wiedersprechen. Gerade Grafikkarten (ja sie können wärmer als CPUs werden) sollten heute nicht mehr um die 100°C kommen warum? Leckströme. Diese können sehr böse ausgehen und mit steigender Temp. gehen die Chancen hoch das ein Leckstrom die GPU grillt.
 
Ja 100° da sind wir weit von weg. Deswegen sag ich ja Unsinn das Temp Tarket auf 80° oder was zu begrenzen. 95° dann kann jeder das aus seiner Möhre rausholen was er will oder das Ding Silent machen aber sowas:

http://www.3dcenter.org/artikel/nvi...-fuer-benchmarks-aber-ohne-bedeutung-fuer-die

geht gar nicht.

"So ist es mittels dieser Tweaktools möglich, im Rahmen der Garantie das Temperatur-Limit der GeForce GTX Titan von normalerweise 80°C auf immerhin 95°C zu erhöhen. Diese starke Erhöhung muß man nicht vollständig ausnutzen, schließlich wird damit natürlich auch die Lebensdauer der Hardware beeinflusst. Eine Erhöhung von 80°C auf 90°C läßt aber noch ein paar Reserven übrig, gleichzeitig wird die GeForce GTX Titan nicht mehr so deutlich an ihrer Chiptemperatur ausgebremst."
 
Na ja was bringen dir mehr als 60 FPS? Mir ist klar das es 100+ Hz Monitore gibt, allerdings ist dies eher die ausnahme.

Ich mein schaur dir mal Bioschock an. Von 73 FPS auf 100 FPS das ist praktisch kein Unterschied er ist zwar messbar aber das war es auch schon. Da würd eich lieber die HW schonen.
 
Eine einzelne Titan schafft nicht in allen aktuellen Spielen konstant 60FPS oder mehr auf 2560x1440/1600 und mittleren oder hohen Qualitätseinstellungen.
Es gibt durchaus noch Bedarf, so eine Karte an die Grenzen zu übertakten, wenn man SLI (oder Crossfire) vermeiden will.

Vielleicht wird die HD9970 (oder wie auch immer die größte Consumer-Hawaii-Karte heißen wird), die erste wirklich 1440p-taugliche Single-GPU-Karte.

Mein alter 1920x1200-Monitor hat vor 8 Jahren übrigens über 1200 Euro gekostet und war schon eines der billigeren Modelle dieser Klasse. Mein aktueller ASUS PB278Q mit 2560x1440 hat mich nicht mal 600 Euro gekostet und ist inzwischen auf knapp 500 Euro gefallen. Es ist heute also sehr viel erschwinglicher, überdurchschnittlich hohe Auflösungen zu nutzen. Deshalb vermute ich auch, dass es heute mehr Spieler mit 1440p-Monitoren oder mehr gibt, als vor 6-8 Jahren mit FullHD oder mehr.
Aber die GPU-Entwicklung kommt leider einfach nicht hinterher.
 
Zurück
Oben