News Nvidia GTX 800 und GTX 900 angeblich mit Maxwell

Wenn ich voraussichtlich Donnerstag meine Ati habe, dann kann ich sie bis bis Ende 2015 nutzen und eine GTX970 mit dem GM104 in 20nm kaufen oder gleich die GTX980 oder eine GTX1070. Die Karten bekommen hoffentlich auch vernünftig Speicher und Bandbreite! GTX880 und GTX970 mindestens mit 320 bis 384 Bit, 5GB bis 6GB und 300 bis 400GB/s. Erst gar nicht Speicherkrüppel machen. :cool_alt:
 
Kenneth Coldy schrieb:
Der Witz geht auf Deine Kosten wenn Du unbedingt jede Generation mitnehmen "musst".[...]

Nochmal: Ich kaufe nicht jede Generation.
Es geht mir lediglich darum, dass selbst wenn man eine Generation auslässt, man nur effektiv 21% mehr Leistung hat.
Selbst wenn ich 2 Generationen auslasse, gewinne ich (Achtung: Milchmädchenrechnung!) nur 33%.
Das hatte man früher von Generation A.9 auf Generation B.8 .
Der Leistungsgewinn lohnt einfach überhaupt nicht.
 
Banger schrieb:
Die Karten bekommen hoffentlich auch vernünftig Speicher und Bandbreite! GTX880 und GTX970 mindestens mit 320 bis 384 Bit, 5GB bis 6GB und 300 bis 400GB/s.

Wenn auf der GTX 880 ein GM204 sitzt werden wir ein 256 Bit SI sehen, da ja laut der Zollliste der GM204 zum GK204 Pinkompatibel ist.
 
BacShea schrieb:
Nochmal: Ich kaufe nicht jede Generation.
Es geht mir lediglich darum, dass selbst wenn man eine Generation auslässt, man nur effektiv 21% mehr Leistung hat.
Selbst wenn ich 2 Generationen auslasse, gewinne ich (Achtung: Milchmädchenrechnung!) nur 33%.
Das hatte man früher von Generation A.9 auf Generation B.8 .
Der Leistungsgewinn lohnt einfach überhaupt nicht.

Das ist ja schön und gut, aber früher kamen halt auch noch so Grafikkracher wie Crysis raus, die selbst auf damaligen High-End-Karten unter max Settings kaum bis garnicht spielbar waren. Erst Jahre später konnte man sich dann als "Normalo" ne Maschine hinstellen die solche Titel auch nur ansatzweise wiedergeben konnte. Diese Situation haben wir aber inzwischen einfach nicht mehr. Viele Spiele sind recht genügsam geworden, was die Hardware angeht. Nicht zuletzt ist dies auch Cross-Plattform-Entwicklungen "geschuldet", die mehr oder weniger auf den kleinsten gemeinsamen Nenner programmiert werden. Und das ist so gut wie nie der PC.

Wenn man seine Anforderungen nicht künstlich mit Multimonitoring, 3D, 4K oder Downsampling aufbläst dann tut man sich schwer, Karten vom Kaliber einer 290X, 780 oder Titan konstant an ihre Grenzen zu bringen. Gleichzeitig steigt der Mehraufwand für die Programmierer überproportional mit der gewünschten Optik des Spiels, sprich "doppelte Arbeit" führt nicht zu einem Spiel das "doppelt so gut aussieht", sondern lediglich zu einem Spiel das "ein bisschen besser" aussieht.

Daher besteht weder aus Sicht der Spielehersteller noch aus Sicht von Nvidia/AMD großer Bedarf nach jährlich neuen Karten, die die Vorgängergeneration um 50 % überbieten.
 
CD schrieb:
Daher besteht weder aus Sicht der Spielehersteller noch aus Sicht von Nvidia/AMD großer Bedarf nach jährlich neuen Karten, die die Vorgängergeneration um 50 % überbieten.

Das ist sicher richtig. Allerdings denke ich, dass es inzwischen nicht nur an der Notwendigkeit fehlt, sondern die GPUs auch an gewisse Grenzen stoßen, die ein Leistungswachstum wie von früher gewohnt schwer bis unmöglich machen. Aus dem selben Grund werden auch die Produktzyklen immer länger.

Es gab Zeiten, da kam alle halbes Jahr eine neue GPU-Generation raus. Heutzutage sind wir inzwischen eher bei 2-3 Jahren.

Das liegt nicht nur an der fehlenden Nachfrage nach mehr Leistung, sondern es wird immer schwieriger, die Leistung der GPUs zu steigern. Früher packte man hauptsächlich einfach dank kleinerer Strukturgrößen immer mehr Transistoren auf die selbe (oder auch mal größere) Fläche. Gleichzeitig wurden durch die feineren Strukturen die Schaltströme niedriger, so dass trotz Mehrfachem an Transistoren der Verbrauch nicht durch die Decke ging und höhere Taktfrequenzen möglich wurden.

Aber selbst wenn es weiterhin möglich wäre, die Strukturen immer mehr zu verkleinern (was offensichtlich nicht so ohne weiteres drin ist, wenn man die Probleme anschaut, die nicht nur TSMC mit neuen Fertigungsprozessen hat), stößt man da langsam an Grenzen. Die Energiedichten werden immer größer, so dass das Die einfach wegschmelzen würde, wenn man alle Transistoren gleichzeitig schaltet. Außerdem werden Leckströme zu einem größeren Faktor beim Verbrauch als die Schaltströme. Dazu kommen andere Faktoren, die mehr und mehr zum Flaschenhals werden. Z.B. Speicherlatenzen oder Signallaufzeiten usw.

Das Ergebnis davon sieht man sehr gut an der GM204. Die wird im selben "alten" Fertigungsprozess hergestellt wie der Vorgänger und hat in vielen Bereichen auch ganz ähnliche Spezifikationen (z.B. das selbe SI). Die Leistungs- und Effizienzsteigerungen kommen fast allein aus Optimierungen der Architektur, statt einfach nur "mehr von allem" bei niedrigerer Spannung und/oder höherem Takt dank kleinerer Strukturen.
Aber so sind eben nicht so große Sprünge drin wie früher. Jedenfalls nicht mehr in so kurzen Zeitabständen. Der Aufwand diese Maxwell-GPU zustande zu bringen ist garantiert um ein vielfaches größer, als noch zu Zeiten von Fermi, Tesla oder G80 usw.

Das erklärt dann zumindest teilweise auch die letzten Preiserhöhungen und den zunehmenden Trend zu Umbenennungen statt wirklich neuen Produkten. Nvidia und AMD müssen einfach mehr Geld aus jeder GPU rausquetschen, um die zunehmend aufwändige Entwicklung der nächsten Generation zu finanzieren.
 
Zuletzt bearbeitet:
Wir haben tatsächlich einen Punkt auf der Liste übersehen. Den "GM204 Water Cooled Plunger". Wenn die GTX880 eine Wasserkühlung bekommt ist das ein eindeutiges Zeichen dafür die Kiste ordentliche Temperaturen produziert.
 
Herdware schrieb:
Das ist sicher richtig. Allerdings denke ich, dass es inzwischen nicht nur an der Notwendigkeit fehlt, sondern die GPUs auch an gewisse Grenzen stoßen, die ein Leistungswachstum wie von früher gewohnt schwer bis unmöglich machen. Aus dem selben Grund werden auch die Produktzyklen immer länger.

Es gab Zeiten, da kam alle halbes Jahr eine neue GPU-Generation raus. Heutzutage sind wir inzwischen eher bei 2-3 Jahren.
Das musst du dir aber eingebildet haben. Die Zeiträume zwischen den einzelnen Generationen haben sich nicht geändert und die Leistungssteigerungen sind in letzter Zeit viel größer als zu damligen Zeiten.

nvidia.jpg


Normalerweise sagt man ja immer, dass das Moorsche Gesetz nicht mehr gültig ist, aber bei nVidia scheint es tatsächlich noch zu gelten.

Moores_Law_Tombstone.jpg


Vergiss bitte nicht, dass die 10% von denen hier die Rede ist keine offizielle Angabe ist oder mittels Benchmarks ermittelt wurde, sondern von irgend einem Leaker in einem Forum behauptet wurden. Ich weiß gar nicht, warum dem so viel Glauben geschenkt wird.
Ich kann auch behaupten, dass die Karte 200% schneller sein wird. Deswegen stimmt das noch lange nicht.
 
Zuletzt bearbeitet:
@noxon
Deine schöne Grafik geht über den Zeitraum nach der wirklich rasanten Phase mit ihrem 6-Monate-Rhytmus (GeForce1, 2, 3 und 4) und bevor mit Kepler die große Stagnation eingesetzt hat. Sie steht für die Zeit, als ca. jedes Jahr eine neue GPU-Generation kam.

Die GK104 kam im März 2012. Die GM204 wird jetzt für Ende 2014 erwartet. Das sind ca. 2,5 Jahre! Und dazwischen gibts nicht mal einen neuen Fertigungsprozess. Der laut den Gerüchten erwartete Leistunggewinn von über 50% ist trotzdem gut für einen Generationsschritt, nur hätte es davon früher in dem Zeitraum halt 2-4 gegeben.
 
Herdware schrieb:
Das ist sicher richtig. Allerdings denke ich, dass es inzwischen nicht nur an der Notwendigkeit fehlt, sondern die GPUs auch an gewisse Grenzen stoßen, die ein Leistungswachstum wie von früher gewohnt schwer bis unmöglich machen. Aus dem selben Grund werden auch die Produktzyklen immer länger.
(...)

Ja das kommt noch dazu. Bis auf einige wenige Exemplare (vor allem Dual-GPU-Karten) traut sich kaum jemand an die 200-250 W Grenze ran. Mehr Leistung durch einfach mehr Transistoren scheidet daher schon mal aus, da Verbrauch und Abwärme explodieren würden. Und die letzten Jahre haben gezeigt, dass man mit den aktuellen doppelstöckigen Luftkühlern und 80-90 °C Normaltemperatur bei idR gerade noch erträglicher Lautstärke das Limit der Kühlung erreicht hat. Dass die Karten inzwischen mehr Rechenleistung pro Watt besitzen bzw. der Verbrauch - vor allem im High-End Segment - nicht weiter ansteigt liegt wahrscheinlich weniger am Umweltbewusstsein der Hersteller und ist viel eher der gerade noch machbaren Kühlung geschuldet. Dass die kleineren Ablegerkarten dadurch dann insgesamt weniger verbrauchen ist eher ein netter Nebeneffekt als das erklärte Ziel.

Aus einer rein evolutionären Sicht war es früher gefühlt schon irgendwie spannender. Ich denke da an die Zeiten zurück, als ich ne brandneue GTX8800 mit nem sagenhaften G80 Chip verbaut hatte, oder als ich die erste 5870+Eyefinity-Setup ausprobiert hab. Mittlerweile sind die Steigerungen gefühlt irgendwie geringer, aber das liegt vielleicht auch daran, dass man eben nicht jünger wird ;)

Und unter einem rein finanziellen Aspekt finde ich es auch garnicht so verkehrt, dass man doch nicht mehr unbedingt jedes Jahr aufrüsten muss - selbst mit einem Multimonitor-Setup.
 
@Herdware:
Den GM107, der Anfang diesen Jahres erschienen ist, scheinst du wohl zu vergessen?

Außerdem bedeutet eine GPU Generation nicht immer, dass sich auch die Chip-Architektur ändern muss. Damals gab es auch GeForce4 Karten die noch auf den gleichen Chips basierten die schon in den GeForce2 Karten verbaut wurden.

Ich würde also auch den GK104 und GK110 Chip als zwei unterschiedliche Generationen bezeichnen auch wenn sie praktisch zur gleichen Zeit erschienen sind. Es sind halt komplett unterschiedliche Chips für zwei völlig unterschiedliche Zwecke.
 
Herdware schrieb:
Ich erwarte sogar, dass die GM204-GPU locker mehr als 20-30% schneller als der Vorgänger GK104 sein wird. Aber dummerweise steckt in den aktuellen High-End-Karten halt die viel größere GK110 und die mal eben mit einem kleinen Performance-Chip deutlich zu überholen, ist schon viel schwieriger.

Wenn es Nvidia wirklich gelingt, mit einer Performance GPU (>300mm², 256Bit-SI usw.) den Big-Chip der letzten Generation (>500mm², 384Bit-SI usw.) um 10% zu übertrumpfen, und das ohne kleinere Fertigungsstruktur(!), dann ist das schon ein mittleres Wunder. Zusammen mit der zu erwartenden Effizienzverbessung spricht das Bänd über die Verbesserungen der GPU-Architektur von Maxwell gegenüber Kepler, das ja auch schon ein großer Fortschritt war.

Nur wäre der eigentliche Nachfolger der GK110 halt erst die GM200-GPU und auf die müssen wir wohl noch sehr lange warten. Erst die wird dann auch leistungsmäßig deutlich vor den heutigen High-End-Karten liegen. Aber das dann wohl wirklich mehr als deutlich. Wenn die 28nm-GM204 schon 10% schneller ist, als ein GK110-Vollausbau, dann wird 20nm-GM200 sie im Staub stehen lassen. Da sind dann wohl Richtung 80-100% Mehrleistung drin. (Deshalb auch meine Befürchtung, dass die "Titan II" und auch die GTX980 richtig teuer wird.)
Allerdings relativiert sich der Leistungszuwachs wieder, wenn man den Zeitabstand zwischen GM200 und GK110 betrachtet. In der Zeit wären früher 2 bis 3 neue Generationen rausgekommen.

Ein Wunder ist das nicht. Hier werden einfach Optimierungen gemacht die man sonst einfach auf der Rückhand behalten hat. Da stellt sich eher die Frage, die sich jeder beantworten kann, warum die Optimierungen erst jetzt stattfinden wo es Fertigungsprobleme im 20nm Prozess gibt. Jeder mit etwas Logic ist doch klar das diese Optmierungen schon Irgendwo in ner Schublade lagen und sie halt jetzt rausgeholt wurden weil 20nm etwas länger braucht. Man kann natürlich sagen, "wow" 10% mehrleistung bei gleicher Fertigungsgröße", das hört sich Marketingtechnisch natürlich besser an. Aber man könnte auch sagen, "warum habe ihr diese Optimierungen nicht schon beim GK110 untergebracht". Die antwort ist simpel, warum sollte nVidia da machen. So kann nvida schön noch eine Generation raus bringen was sicherlich rentabeler erscheint als wen man alles raus spielt.

Lars_SHG schrieb:
Warum sollte das ein Wunder sein, wir haben es doch erst vor kurzem so gehabt!
GTX680 zum Wucherpreis und die eigentlich große High-End Karte verschoben! Den Wucherpreis konnte man fordern, da
a) AMD keinen guten Konter hatte
b) die "kleine" eben etwas schneller war als die große "alte"

Am besten die neue Mittelklasse Karte ist auch Mittelklasse - dann gibt es nicht so verrückte Preise bei den Grafikkarten und es herrscht Anstrengung auch was im High-End Bereich zu bringen!

/sign

Ich stelle mir halt immer öfter die frage, will überhaupt AMD Kontern. Oder arrangieren sich die beiden großen immer mehr zusammen heimlich auf den Golfplatz. Preiskämpfe und dazu gehört auch verfrüht Technologische fortschritte auf den Markt zu werfen schaden mehr als sie einbringen....
 
Zuletzt bearbeitet:
CD schrieb:
...
Aus einer rein evolutionären Sicht war es früher gefühlt schon irgendwie spannender. Ich denke da an die Zeiten zurück, als ich ne brandneue GTX8800 mit nem sagenhaften G80 Chip verbaut hatte, oder als ich die erste 5870+Eyefinity-Setup ausprobiert hab. Mittlerweile sind die Steigerungen gefühlt irgendwie geringer, aber das liegt vielleicht auch daran, dass man eben nicht jünger wird ;)
...

Habe auch das Gefühl, dass heute zwar immer etwas neues rausgebracht wird, aber ein Quantensprung ist den Herstellern zuletzt bei der Einführung der 8800 GTX gelungen (oder aber meine mediale Wahrnehmung trügt mich).
Klar gab es Neuerungen wie z. B. bei der Veröffentlichung der Kepler-Architektur und zuletzt bei der GTX 750 ti, bei der das "Leistung pro Watt" Verhältnis durchaus beeindruckend ist!
Aber wenn ich mich z. B. an die damaligen Zeiten zurückerinnere, (ja ich war damals noch ATi-Anhänger) als die ATi 9700 Pro oder die 9800 XT (ich selbst hatte die 9800 Pro) eingeführt wurden, war der Aufruhr der Gamer groß! So etwas hat es bis dato noch nie gegeben! Das waren wahre Monsterkarten! Das Gleiche bei Einführung der 8800 GTX. Habe seither eine solche - ich möchte fast sagen - Revolution nicht mehr erkennen können. Bis auf Kepler und ein paar Kleinigkeiten.
Aber wie bereits erwähnt, möglicherweise trügt mich die mediale Wahrnehmung etwas. Man wird ja auch älter ;)
 
Zuletzt bearbeitet:
CD schrieb:
Ja das kommt noch dazu. Bis auf einige wenige Exemplare (vor allem Dual-GPU-Karten) traut sich kaum jemand an die 200-250 W Grenze ran. Mehr Leistung durch einfach mehr Transistoren scheidet daher schon mal aus, da Verbrauch und Abwärme explodieren würden. Und die letzten Jahre haben gezeigt, dass man mit den aktuellen doppelstöckigen Luftkühlern und 80-90 °C Normaltemperatur bei idR gerade noch erträglicher Lautstärke das Limit der Kühlung erreicht hat.
AMD hats vorgemacht wie man auch ohne Tripple Slot Kühlung mehr als 300 Watt leise abführen kann.
Ich sehe da kein Problem sowas auch für SGPU karten zu benutzen.


lynx007 schrieb:
Ich stelle mir halt immer öfter die frage, will überhaupt AMD Kontern. Oder arrangieren sich die beiden großen immer mehr zusammen heimlich auf den Golfplatz. Preiskämpfe und dazu gehört auch verfrüht Technologische fortschritte auf den Markt zu werfen schaden mehr als sie einbringen....
Ich weiss ja nicht woher dieses Gerücht kommt, aber wenn man sich einfach mal die 295X2 oder die 290X anschaut, da musste NV plötzlich kontern.
Das gleiche war bei der 7970, die 680 kam später und mit höherem Takt, damit Sie der 7970 gewachsen war.

Und das die Titan verschoben wurde, zeigt mal wieder: NV kann auch nur mit wasser kochen.


Architekturen entwickeln sich nun mal weiter. Kepler und Maxwell haben sehr starke unterschiede. Auch das 256Bit SI sehe ich nicht kritisch, denn Maxwell hat deutlich mehr Cache als es Kepler hat.
 
noxon schrieb:
@Herdware:
Den GM107, der Anfang diesen Jahres erschienen ist, scheinst du wohl zu vergessen?

Eine einzelne Schwalbe.... ähm Mittelklasse-GPU, macht noch keine neue Generation. Sieht ja auch Nvidia so und vermarktet sie als 700er. ;)

Außerdem kann ich auch noch viele weitere Gegenbeispiele für die Stagnation nennen. Z.B. zweites Halbjahr 2015 für die GM200, das sind ebenfalls 2,5 Jahre nach der GK110. Oder noch krasser AMDs Tahiti-GPUs. Da gibts bisher nicht mal konkretere Gerüchte, wann da ein Nachfolger zu erwarten ist. 2015 wirds aber wohl recht wahrscheinlich werden. Das wären dann mindestens 3 Jahre.

Sagt was ihr wollt, sowas hätte es früher nicht gegeben. Jedenfalls nicht im High-End oder auch der Performance-Klasse. Solche extrem langen Lebenszyklen gabs bisher höchstens im absoluten Low-End, wo die Leistung eh nicht allzu viel zählt, sondern nur ein gewisses Minimum an Features zum möglichst günstigen Preis.

Ich würde also auch den GK104 und GK110 Chip als zwei unterschiedliche Generationen bezeichnen auch wenn sie praktisch zur gleichen Zeit erschienen sind. Es sind halt komplett unterschiedliche Chips für zwei völlig unterschiedliche Zwecke.

Man kann darüber streiten, ob die GK110 der einzige Vertreter der Kepler-Refresh-Generation ist, der es in den Handel geschafft hat. Der späte Erscheinungstermin und die Kennzeichnung der GPU sprechen dafür.

Aber das ändert nichts daran, dass die GK110 nicht der Nachfolger der Performance-GPU GK104 ist. Der direkte Vorgänger des Big Chips GK110 ist die GF110 z.B. in der GTX580. Bzw. wenn GK110 wirklich der Kepler-Refresh ist, dann war sein direkter Vorgänger die GK100. Die wäre nach dem klassischen Schema der Nvidia-Erscheinungstermine schon ein paar Monate vor den Karten mit Performance-GPU fällig gewesen. Gerüchte sprachen seinerzeit auch von Ende 2011, also parallel zu AMDs Tahiti-Karten. Aber wie wir alle wissen, kamen die GK100 nie auf den Markt.

Wie auch immer. Man kann nicht bestreiten, dass die Lebenszyklen der GPUs bei beiden Herstellern insgesamt dramatisch länger geworden sind. Und gleichzeitig haben die Preise deutlich angezogen. Selbst wenn man außen vor lässt, dass die GTX680 wohl eigentlich eher als GTX660(Ti) zum viel niedrigeren Preis hätte vermarktet werden müssen, kostete die GTX780 mal eben 150€ mehr als die Vorgänger in dieser Klasse.
Der "Preisbrecher" Titan hats möglich gemacht, dass die teure GTX780 trotzdem als "günstiger Titan-Killer" wahrgenommen wurde.
 
Zuletzt bearbeitet:
Lebenszykeln zwischen den Prozessorarchitekturen und all das ist doch völlig egal, solange die Rechenleistung zwischen den einzelnen Modellen, die regelmäßig veröffentlicht werden in angemessenem Maße steigt.



Klar war es damals von der 7800 auf die 8800 ein toller Sprung, aber so ist es auch heute von einem High End Modell zum nächsten.
Wo sich wirklich mal etwas tun könnte, das wäre im CPU Sektor. Da treffen deine Kritikpunkte nämlich alle zu. Besonders im single-Threaded Bereich hat es dort nämlich kaum Verbesserungen gegeben und ein Großteil der Anwendungen sind halt immer noch Single-Threaded. Installationen und solche Dinge laufen daher immer noch stink langsam ab obwohl da schon längst hätte etwas passieren können.
 
Zuletzt bearbeitet:
Das sind aber sehr spezielle Diagramme, die du das rausgesucht hast. Theoretische Single-Pression-Rechenleistung und Speicherdurchsatz sind nicht alles. Die meisten Spieler interessieren sich wohl eher für die FPS, die hinten rauskommen. Da sähen die Kurven dann gleich ganz anders aus.

(Nett übrigens auch, wie die GTX580 beim Speicher "zufällig" weggelassen wurde, damit der Knick, den die kleine Performance-GPU der GTX680 mit ihrem 256Bit-SI da reingehauen hat, nicht noch schlimmer auffällt. Und die Titan dahinter genauso. ;) Sind halt Marketing-Folien. )
 
Zuletzt bearbeitet:
Alle Karten ab Nvidia "Fermi" und AMD HD 7000Series ein DirectX 12 Update erhalten. Alles was DirectX 12 werden kann, ist auch durch DirectX 11.2 realisierbar. Die API wird einfach nur anders angesprochen. Auch neue Karten werden mit DirectX 12 keinen Hardware Eingriff haben. Es wird einfach nur umprogrammiert. Wobei DirectX 12 auch auf XBox und PS4 einzug halten wird. Deswegen muss sich auch keiner sorgen machen und kann beruhigt eine der oben genanten Grafikkarten Serien kaufen.
AMD und Nvidia haben dies selber bestätig, das könnt ihr auch einfach mal googlen und nachschauen.
 
Das schließt aber trotzdem nicht aus, dass die zukünftigen GPUs darüber hinaus noch zusätzliche DX12-Features in der Hardware implementiert haben, die heutige GPUs mit 11_0-, 11_1- oder 11_2-Feature Level nicht bieten.
 
Herdware schrieb:
Das sind aber sehr spezielle Diagramme, die du das rausgesucht hast. Theoretische Single-Pression-Rechenleistung und Speicherdurchsatz sind nicht alles. Die meisten Spieler interessieren sich wohl eher für die FPS, die hinten rauskommen. Da sähen die Kurven dann gleich ganz anders aus.
Ja. Dann sähen die Kurven wie Geraden aus. Natürlich steigt die Framerate nicht über die Jahre an sondern bleibt konstant. Was hast du denn erwartet?
Die Spiele sind eben anspruchsvoller geworden und setzen die ihnen zur Verfügung stehende Rechenleistung in besser aussehende Spiele um.

Damals konnte man glücklich sein, wenn ein Spiel ein Frame in mehreren Renderdurchgängen berechnet hat und so schöne Transparenz- und Lichteffekte erzeugen konnte.
Heute benötigen Spiele wie BF3 satte 21 Renderdurchläufe bevor das endgültige Frame zusammengesetzt wird und sie erzielen trotzdem noch flüssige Frameraten bei 4k Auflösungen.


(Nett übrigens auch, wie die GTX580 beim Speicher "zufällig" weggelassen wurde, damit der Knick, den die kleine Performance-GPU der GTX680 mit ihrem 256Bit-SI da reingehauen hat, nicht noch schlimmer auffällt. Und die Titan dahinter genauso. ;) Sind halt Marketing-Folien. )
Es gibt immer wieder Modelle dazwischen, die aus dem Rahmen fallen.
Was hat das damit zu tun, dass der grundlegende Trend nach oben geht? Darum geht es doch in der ganzen Diskussion hier.


Übrigens: Freut euch mal auf den Vortrag am 23 Mai auf dem AMD & Microsoft Game Developer Day:

http://www.eventbrite.com/e/amd-microsoft-game-developer-day-tickets-11172787107?aff=estw

Agenda:
7 presentations in covering the below subjects (titles currently being finalised)
GCN Architecture
Mantle
DirectX12
Shader optimisation
Xbox One and Indi Developers

Johan Andersson from EA Frostbite and Emil Persson from Avalanche Studios are confirmed presenters

Ich hoffe den wird es irgendwo online als video zu sehen geben.
 
Zuletzt bearbeitet:
Zurück
Oben