News Nvidia GeForce GTX 1070: Titan-X-Leistung bei GTX-960-Verbrauch

ampre schrieb:
@Harware_Hoshi
14 und 16nm dürften voll ausgereift sein dank Apple und Samsung. Das mit dem doppelten Preis galt mal für die ersten Chips der ersten Stunde.

Nein, die Chips von Apple und Samsung waren kleine mini-chips für die Mobilgeräte in der kleinen LPE-Fertigung (Low Power Early). Die GPUs der neuen Grafikkarten sind wesentlich größer und im LPP-Verfahren hergestellt. Davon gab es vorher noch keine Produktion. Die Yields sind sicher nicht herausragend.

Angeblich hat AMD auch Probleme mit steigenden Hitze/Verbrauch bei höheren Taktraten. Da könnte zumindest etwas dran sein.
____
Nvida verlässt sich weiterhin auf TSMC. Die Fertigung scheint in Sachen Taktraten ja gut zu funktioneren. Die GTX 1080 schafft 2+ GHz locker, sofern Kühlung und Powertarget stimmen. Die GTX 1070 sollte also 1,6 bis 2 GHz stemmen können.
 
Zumindest bei dem Sprung von der GTX 580 (400€) auf die GTX Titan (1000€) müsste dir doch auffallen, dass an deiner Rechnung etwas nicht stimmt.
Bitte vergleicht nicht immer Vram Krüppel mit einer Titan. Eine Titan hat immer verdoppelten Vram, also ausreichend für 4+ Jahre mit dabei.

GTX 580 3GB (500€) v. Titan (1000€) kann man vergleichen.

Der Titan fehlt bei 1000€ zwar immer noch ein guter Kühler, aber wenigstens big Chip Vollausbau + verdoppelter Vram v. big Chip Vollausbau + verdoppelter Vram wird dann verglichen.

Ansonsten seit ihr auf der richtigen Spur. 2011 gabs eine Titan Leistung noch für 500€, kurz drauf musste man das doppelte zahlen für im Prinzip das gleiche. Ich musste sogar 1300€ hinblättern um den lächerlichen Referenz Kühler der Titan los zu werden um einen würdigen Nachfolger für die gut gekühlte GTX 580 3GB zu finden. Also im Prinzip haben sich die Preise fast verdreifacht.

Das wirklich schlimme daran ist das die Presse das nicht abstraft in ihren Tests. Da werden dann Karten wie die 1080 8GB mit 50% vom Vram Soll in den Himmel gelobt, trotz des Preises. Entweder 16GB Vram und Wucherpreis, oder 8GB und viel weniger Wucher. Aber beides. Come on, wer soll hier eigentlich verarscht werden?
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Nein, die Chips von Apple und Samsung waren kleine mini-chips für die Mobilgeräte in der kleinen LPE-Fertigung (Low Power Early). Die GPUs der neuen Grafikkarten sind wesentlich größer und im LPP-Verfahren hergestellt. Davon gab es vorher noch keine Produktion. Die Yields sind sicher nicht herausragend.

Angeblich hat AMD auch Probleme mit steigenden Hitze/Verbrauch bei höheren Taktraten. Da könnte zumindest etwas dran sein.
____
Nvida verlässt sich weiterhin auf TSMC. Die Fertigung scheint in Sachen Taktraten ja gut zu funktioneren. Die GTX 1080 schafft 2+ GHz locker, sofern Kühlung und Powertarget stimmen. Die GTX 1070 sollte also 1,6 bis 2 GHz stemmen können.

Die Fertigung hat nicht direkt was mit den Taktraten zu tun. Eher die Packdichte. Polaris 10 soll ja die gleichen shaderanzahl haben wie der gp104. Das aber auf einer 1/3 kleineren Fläche. Das ist das Problem, warum amd nicht gut Takten. Brauchen sie auch nicht da auch kleine Taktsteigerungen mehr Power liefern als bei Nvidia
 
Hardware_Hoshi schrieb:
Ihr immer mit eurer bescheidenen Milchmädchenrechnung. Zufällig ist der 16nm FinFET Prozess teurer als die alte ausgereifte 28nm-Version. Schätzungen von 2014/2015 zufolge kostet ein 16nm-Wafer fast das Doppelte. Selbst mit kleinerer Chipfläche kommt man am Ende trotzdem nicht an die alten Preise ran. Dazu noch der beschissene Eurokurs, da kommt halt einiges zusammen.

Das basiert nur auf der veralteten Aussage (mehr ist es nicht), dass der neue Prozess unglaublich kostspielig sein soll. Man muss auch beweisen, ob das jetzt tatsächlich der Fall ist. Es ist so unglaublich leicht einfach zu lügen, denn wie man sieht kaufen die Leute sowieso jeden Scheiß mit Sahnehäubchen oben drauf.

Die Rekordgewinne von Nvidia seit Kepler sprechen auch dagegen. Wenn TSMC wirklich die meisten Kosten verschlingen würde, sähe das bedeutend anders aus.

PS: Bevor jetzt kommt, dass die Diskrepanz zwischen Nvidias Umsatz und ihren Gewinnen extrem hoch liegt und deshalb geschlussfolgert wird, dass nur TSMC für die Wucherpreisen verantwortlich ist: Woher willst denn wissen, woraus sich diese Diskrepanz zusammensetzt? Es gibt viele Faktoren, die den Umsatz auf den Gewinn schmälern. Das wären u.a Lohnkosten, Miete, Entwicklungskosten, Investitionen, oder auch die Gier leitender Personen, die sich etwas zu viel in die Tasche stecken. Und noch vieles mehr.

Wenn man richtig nachdenkt und ehrlich ist, kommt man zu folgendem Ergebnis: Man weiß es nicht! Die winzigen, allgemein gehaltenen Informationshäppchen die herumschwirren sind nichts weiter als Hörensagen. Rein zufällig auch noch zugunsten Nvidias...
 
ampre schrieb:
Die Fertigung hat nicht direkt was mit den Taktraten zu tun. Eher die Packdichte. Polaris 10 soll ja die gleichen shaderanzahl haben wie der gp104. Das aber auf einer 1/3 kleineren Fläche. Das ist das Problem, warum amd nicht gut Takten. Brauchen sie auch nicht da auch kleine Taktsteigerungen mehr Power liefern als bei Nvidia

Das ist nur teilweise richtig. Wenn es zu Leckströhmen zwischen den Lanes kommt, kannst du jegliche Packdichte vergessen. Dann gibt es im Chip einen stromfressenden Heizofen ohne Gegenleistung. Bei den kleineren Polaris macht das eventuell nicht viel auf, weil diese nicht so viele Transistoren haben. Bei allen größeren Chips wird das Problem zunehmend größer.

Übrigens ist die gleiche Shaderanzahl zwischen AMD und Nvidia schlecht für AMD. Grund ist, dass GCN einfach mehr Shader als die Geforce-Architekturen benötigt um die gleiche Leistung zu erzielen.

Beispiel aus der 28nm-Generation:
Fiji: 4096 Shader
GM200: 2816 Shader (beschnitten in GTX980 Ti)

Rechne das doch einmal im Verhältnis um und vergleiche es mit der 14/16nm FF. Soweit ich weiß ist die 14nm-Varante knapp unter 10% kleiner (=Dichter) als die 16nm von TSMC. AMD müsste also trotzdem die Taktraten anheben, um mehr Leistung zu erzielen. Es sei denn, die Polaris chips sind nur reine shrinks. Das wäre jedoch dämlich!

Es steht noch nicht einmal fest, welche Variante denn überhaupt gegen die GTX 1070 antritt.



@Tyler654
Die neue Fertigung ist definitiv teurer, da beißt die Maus keinen Faden ab. Ohne Massenfertigung wird sich das nicht ausgleichen. Nvidia hat erst mit dieser begonnen. Die Preise werden im Laufe der Zeit nach unten gehen können.

Der schlechte Umrechnungskurs Euro <-> Dollar hat schon die GTX 970 nach Release teurer gemacht. Die FE ist nur Augenwischerei. Damit greift Nvidia die Early Adopter ab, die keine Sekunden warten können. Die Customkarten werden zeigen wo die Preise hingehen.

Laut momentanem Stand sind da etwa 100€ unterschied.
 
Zuletzt bearbeitet:
Nur werden die Spieleentwickler da mitgehen, wenn die Mehrheit der Spieler diese ausartenden Preisvorstellungen nicht mehr mittragen kann oder will? Letztendlich lohnt es sich für diese dann auch nicht mehr, wenn mangels Geld der Absatz schwindet/einbricht, Ultra-Einstellungen zu unterstützten und immer größeren Hardwarehunger zu fördern. Die Gier seitens nVidia und anderer Hersteller, die einen unverhältnismäßigen Reibach auf Kosten des Kunden machen wollen, könnte dann schnell ein Ende nehmen.

Tja und dann sind einige hochpreisige Produkte natürlich auch zu Beginn zum Teil buggy/limitiert bzw. qualitativ nicht einwandfrei ab Marktstart was auch nicht unbedingt überall für Freude sorgt, letztes Beispiel:

http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10808G-Grafikkarte-262111

Kasmopaya schrieb:
Das wirklich schlimme daran ist das die Presse das nicht abstraft in ihren Tests. Da werden dann Karten wie die 1080 8GB mit 50% vom Vram Soll in den Himmel gelobt, trotz des Preises. Entweder 16GB Vram und Wucherpreis, oder 8GB und viel weniger Wucher. Aber beides. Come on, wer soll hier eigentlich verarscht werden?

Da kommen schon teure Zeiten auf uns zu, weshalb ich mir WQHD auch sparen werde und erst einmal auf Full HD + Downsampling bleiben werde, bis sich die Grafikkarten und HDR/OLED DP1.3/120Hz 30"+ Monitore preislich eingependelt haben ... wohl nicht vor 2018 (passend zum Marktstart von Navi und Volta?)

Natürlich straft die Presse das nicht ab, weil sie mit den Herstellern unter einer Decke steckt bzw. von deren Produktveröffentlichungen und Preistreiberei profitiert sowie auch abhängig ist ;). Vielleicht wird einem beim kommenden GTX 1070 Test hier auf ComputerBase dann doch noch nachträglich Besorgnis und Kritik vorgegaukelt, denn es gab ja schon einen kleinen Shitstorm von einigen Forumsmitgliedern bzgl. des komplett unkritischen Test-Verhaltens zum exorbitanten Preis der GTX 1080 hier. Warten wir es ab!
 
@ Hardware_Hoshi

Amd kann bis jetzt noch nicht seine Shader auslasten. Das wird sich mit Dx12 ändern. Das sieht man auch jetzt schon und zurzeit wird noch nicht mal Async Compute genutzt. Sie brauchen Async Compute um alle Shader auszulasten. das ist auch das Problem von Amd. Sie müssen mit Ihrem geringen Marktanteil genug Programmierer überzeugen Async Compute zu nutzen. Was die Programmierer nicht tun da Nvidia viel mehr Marktanteile hat und Gameworks als gratis Programmierhilfe obendrein gibt.

Du siehst Nvidia behindert den Markt und den Fortschritt. Man könnte weit mehr Leistung pro Chipfläche rauspressen wenn man Asyn nutzt. das tut man aber nicht weil man schon zu sehr abhängig ist von einem Hardwarehersteller
 
Zuletzt bearbeitet:
wenn diese zu Weihnachten für 350,- zu haben sein wird, dann werde ich meine GTX960 ersetzen :)
 
ampre schrieb:
Amd kann bis jetzt noch nicht seine Shader auslasten. Das wird sich mit Dx12 ändern. Das sieht man auch jetzt schon und zurzeit wird noch nicht mal Async Compute genutzt. Sie brauchen Async Compute um alle Shader auszulasten. das ist auch das Problem von Amd. Sie müssen mit Ihrem geringen Marktanteil genug Programmierer überzeugen Async Compute zu nutzen. Was die Programmierer nicht tun da Nvidia viel mehr Marktanteile hat und Gameworks als gratis Programmierhilfe gibt.

Spielt letztendlich für die Käufer keine Rolle! Das ist nicht deren Problem.
Aktuell verkaufen alle ihre SLI 970 oder 980 Karten und legen sich entweder eine 1070 oder bei entsprechendem Geldbeutel eine 1080 zu. Die Performance-Höhe der Titan-X klingt einfach verlockender als "kann Shader nicht auslasten".
 
Hardware_Hoshi schrieb:
Ihr immer mit eurer bescheidenen Milchmädchenrechnung. Zufällig ist der 16nm FinFET Prozess teurer als die alte ausgereifte 28nm-Version. Schätzungen von 2014/2015 zufolge kostet ein 16nm-Wafer fast das Doppelte. Selbst mit kleinerer Chipfläche kommt man am Ende trotzdem nicht an die alten Preise ran. Dazu noch der beschissene Eurokurs, da kommt halt einiges zusammen.

Der werte Herr BWL-Student macht also den Fehler und setzt auf Schätzungen von 1 bis 2 Jahren, auf die er dann eine sogenannte "Argumentation" aufbaut? Lernt man denn nicht, dass die Aktualität der Quellen essentiell ist? Wenn du denn nun aktuellere Quellen anbieten könntest, würde dein Post nicht einfach nur zu einem "Ich schreib mal meine subjektiven Meinungen und Überzeugungen" verkommen.

Ein anderer Aspekt(, selbst wenn die Waferkosten doppelt so hoch wären:)

Yields bei einem bereits seit einem Jahr laufenden Prozess, ob aufgrund von Waferschäden oder Fertigungsproblemen sollten bei einem 300mm^2 Chip immer noch deutlich besser sein als bei einem 600mm^2-Chip in 28nm. Wenn man bereits Fat-Dies (GP100) generell fertigen kann, dann ist der Yield als wenigstens normal zu bezeichnen. nVidia hat deutlich nach dem Erscheinen des GK104 und Tahiti in ähnlicher Größe zu GP104 angegeben, dass ein GK110 mit seinen 500mm^2 momentan selbst mit höchsten Yields nicht fertigbar ist.

Der Eurokurs ist in der Tat momentan relativ bescheiden und spielt in die Situation ein. Dennoch sehen wir überzogene Preiserhöhungen.
Komm mir nun bitte dennoch nicht mit Aussagen, wie "nVidia kann so hohe Preise verlangen wie sie wollen", oder "Hohe Preise sind wirtschaftlich" etc. pp. blabla, für das der Allgemeinverstand ausreicht.

Hardware_Hoshi schrieb:
-offtopic-
Auf AMD warte ich dieses mal nicht mehr. Da kommen eh nur Enttäuchungen wie die Fury raus. Die ganze 300er Serie und die Fiji Chips waren reine Verarsche.

Mit dieser Aussage zeichnet sich mal wieder gut ab, welchen Einschlag des extremen AMD-Bashing deine Posts besitzen. Wo hat AMD denn ihre Kunden verarscht? Mit geteilter Speicheranbindung, schlechter Optimierung für alte Generationen, sowie Lügen hinsichtlich der Aynchronous-Shader-Unterstützung zum Beispiel?

Ach nein stimmt, man hat ja Fiji als "OCers-Dream" bezeichnet, diese Unverschämtheit. Da ist ja "Pascal is Maxwell times ten","We support Asynchronous Shaders on all our Maxwell Cards" oder "This 1080 is running on 67 degrees Celsius by 2000mhz under air" direkt harmlos dagegen ;)
 
Hardware_Hoshi schrieb:
Die neue Fertigung ist definitiv teurer, da beißt die Maus keinen Faden ab. Ohne Massenfertigung wird sich das nicht ausgleichen. Nvidia hat erst mit dieser begonnen. Die Preise werden im Laufe der Zeit nach unten gehen können.

Es hat sich eigentlich nichts geändert, es fehlt der Beweis.

Übrigens ist es auch kein Beweis wenn man Huang oder TSMC zitiert, wie sie gegenüber irgendeiner Redaktion behauptet haben, dass der 16nm FinFet die Kosten genau auf das jetzige Niveau hochkatapultieren soll. Cui bono ist hier die Frage.

Auch der lange bekannte Fakt, dass mit kleiner werdenden Strukturen der Aufwand ansteigt, ist keine gültige Erklärung, da viel zu allgemein.

Chismon schrieb:
Da kommen schon teure Zeiten auf uns zu, weshalb ich mir WQHD auch sparen werde und erst einmal auf Full HD + Downsampling bleiben

Die Rechnung geht auch nicht mehr auf, da bei niedrigen Auflösungen (Full-HD) in Kombination mit solchen Boliden wie GTX 1080 oder aufwärts dafür die CPU limitiert.
 
Zuletzt bearbeitet:
@Hardwarw_hoshi

Doch das ist dein Problem!!! Du hast freie Marktwirtschaft nicht verstanden als Mündiger Verbraucher
 
Zuletzt bearbeitet:
Tyler654 schrieb:
Die Rechnung geht auch nicht mehr auf, da bei niedrigen Auflösungen (Full-HD) in Kombination mit solchen Boliden wie GTX 1080 oder aufwärts dafür die CPU limitiert.

Naja, ich werde trotzdem noch auf die kleinere Vega10 Karte (490) von AMD warten, bevor ich mich entscheide, zumal es dann u.U. auch zu einem signifikanten Preisrutsch bei den darunterliegenden Karten, inklusive 480X, kommen könnte. Außerdem, sollte DX12 dann nicht dem CPU Limit unter Full HD (bei mir wär es ein - evt. übertakteter - 2600K) zukünftig entgegen wirken?
 
Da kommen schon teure Zeiten auf uns zu, weshalb ich mir WQHD auch sparen werde und erst einmal auf Full HD + Downsampling bleiben werde,
Ich riskiere mal 2560 x 1080 Pixel bei meinem neuen 35" Monitor(den es noch gar nicht gibt). Da sind saftige 20-30% mehr Rohleistung die die GPU da stemmen muss. Ich kann nicht garantieren das meine GPU da am Ende der Lebenszeit dann keine Rohleistungs Probleme bekommen wird. Sehr weise Entscheidung bei dir mit 16:9 1080p. Jeder der höher geht ist Ruck zuck in der Rohleistungsfalle und kann sich schon mal ans regelmäßige GPU aufrüsten gewöhnen. Natürlich mit Wucherpreisen viel Spaß damit.

gab ja schon einen kleinen Shitstorm von einigen Forumsmitgliedern
Gab es beim Facebook/Win 10 Design Anpassung der Seite auch schon und letztens erst beim Wucherpreis für CB Pro. Ich glaub das prallt wie üblich ab, so wie Microsoft im Moment ins Verderben rennt mit ihrer Taktik "friss oder stirb"
 
ampre schrieb:
@Hardwar[e]_hushi

Doch das ist dein Problem!!! Du hast frei[e] Marktwirtschaft nicht verstanden als Mündiger Verbraucher

BWLer halt? Du sprichst genau das Problem an, warum man als Forenuser seine Beiträge meistens nutzlos findet:

Er redet an sich nur aus Sicht der Firmen und blendet Vor- und Nachteile für Kunden zumeist einfach vollkommen aus.
 
Ich hatte gedacht ich bin hier in einem Verbraucher Forum und nicht auf einer Jahreshauptversammlung einer AG :D
 
@ Chismon

Schon, aber was nützt dir DX12, wenn der Löwenanteil deiner jetzigen Spiele auf DX9, DX10 oder DX11 basiert?

Übrigens kommt es auch auf die Art des Spiels an (Open World oder Schlauchlevel, Online mit vielen Spielern oder Offline), wie drawcall-intensiv das Spiel letztendlich wird und natürlich wie es letztendlich umgesetzt wird. Beispielsweise ist das neue Hitman-Spiel mit DX12 ein absoluter Witz, die Bildqualität ist schlechter und die Leistung bricht auch ein. Es hängt alles von den Entwicklern ab.
 
BookerDeWitt schrieb:
Der werte Herr BWL-Student macht also den Fehler und setzt auf Schätzungen von 1 bis 2 Jahren, auf die er dann eine sogenannte "Argumentation" aufbaut? Lernt man denn nicht, dass die Aktualität der Quellen essentiell ist? Wenn du denn nun aktuellere Quellen anbieten könntest, würde dein Post nicht einfach nur zu einem "Ich schreib mal meine subjektiven Meinungen und Überzeugungen" verkommen.

In der Produktion ist die erste / neue Fertigung immer teurer. Besonders bei einem Fertigungsverfahren ist das eine definitive Gegebenheit. Am Anfang sind die Kosten besonders hoch. Je höher die Stückzahlen steigen und die Produktionsmaschinen ersetzt und angespasst werden, desto günstiger kann man fertigen. Das sind ganz natürliche Produktionsvorgägen, dafür braucht man weder Quellen noch Argumentationen. Es ist überall dasselbe! Weiß man als 0815-Forist natürlich nicht unbedingt :evillol:


BookerDeWitt schrieb:
Ein anderer Aspekt(, selbst wenn die Waferkosten doppelt so hoch wären:)
Yields bei einem bereits seit einem Jahr laufenden Prozess, ob aufgrund von Waferschäden oder Fertigungsproblemen sollten bei einem 300mm^2 Chip immer noch deutlich besser sein als bei einem 600mm^2-Chip in 28nm.

Im Vergleich zu 28nm sind die Preise definitiv höher. Bei etwa doppelten Kosten kostet die kleine Fertigung der ~300mm² dann in etwa so viel wie die 600mm² der 28nm. Die Preise gelten für Wafer. Je mehr funktionsfähige Chips Nvidia herausholt, desto mehr können sie verdienen.

Die Yieldrate macht hier den entscheidenden Unterschied. Du machst den Fehler und setzt sie als "hervorragend" gegeben hin. Normalerweise gehen die von schlecht zu hinnehmbar zu .... lange später .... gwünscht. Das geschicht nicht von heute auf morgen!

BookerDeWitt schrieb:
Wenn man bereits Fat-Dies (GP100) generell fertigen kann, dann ist der Yield als wenigstens normal zu bezeichnen. nVidia hat deutlich nach dem Erscheinen des GK104 und Tahiti in ähnlicher Größe zu GP104 angegeben, dass ein GK110 mit seinen 500mm^2 momentan selbst mit höchsten Yields nicht fertigbar ist.

Hier spricht deine Unerfahrenheit. Nvidia verkauft die P100-Teslas zu Premiumpreisen für die Industrie. Ansonsten wäre diese Chipart nicht produzierbar. Am Anfang der Produktion die größte Ausbaustufe zu bringen ist finanzieller Selbstmord.

Ihr vergleicht immer die Chipgrößen als gäbe es da keine Unterschiede. In Wirklichkeit hat ein 300mm² 16nm FF Chips quasi doppelt so viele Transistoren wie die Vorgänger in 28nm. Was da in der Produktion alles schief gehen kann... daher braucht TSMC auch wesentlich mehr Zwischen- und Kontrollschritte. Das wiederum macht die Fertigung teurer da einfach komplizierter.

BookerDeWitt schrieb:
Der Eurokurs ist in der Tat momentan relativ bescheiden und spielt in die Situation ein. Dennoch sehen wir überzogene Preiserhöhungen.
Komm mir nun bitte dennoch nicht mit Aussagen, wie "nVidia kann so hohe Preise verlangen wie sie wollen", oder "Hohe Preise sind wirtschaftlich" etc. pp. blabla, für das der Allgemeinverstand ausreicht.

Also ungeführ die doppelte Leistung zur GTX 970 inklusive doppelten Speicher ist doch was feines. Vor allem wenn es nur etwa 20-30% mehr Kostet. Da hatten wir bereits saftigere Preissteigerungen in der Vergangenheit.

Wenn es dich stört, dann kauf dir diese speziellen Produkte eben nicht. Wo ist dein Problem?

(Der Rest deines Beitrags ist mal wieder total am Thema vorbei!)
 
Zuletzt bearbeitet:
Und der PCGH Test zur GTX 1070 ist draußen, nicht einmal 60fps durchgängig in 1440p ... eher schwach/unzureichend, wie ich finde, auch im Hinblick auf kommende, anspruchsvollere Titel:

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/GTX-1070-Benchmarks-Test-Preis-1196360/2/

Tyler654 schrieb:
Schon, aber was nützt dir DX12, wenn der Löwenanteil deiner jetzigen Spiele auf DX9, DX10 oder DX11 basiert?
Übrigens kommt es auch auf die Art des Spiels an (Open World oder Schlauchlevel, Online mit vielen Spielern oder Offline), wie drawcall-intensiv das Spiel letztendlich wird und natürlich wie es letztendlich umgesetzt wird. Beispielsweise ist das neue Hitman-Spiel mit DX12 ein absoluter Witz, die Bildqualität ist schlechter und die Leistung bricht auch ein. Es hängt alles von den Entwicklern ab.

Naja, das stimmt schon, bei alten Spielen würde mir das wenig nützen, aber für kommende und allgemein sind die Spiele jetzt nicht so rechen-/leistungsintensiv, da diese größtenteils Rollenspiele und (runden- oder echtzeitbasierende) Strategiespiele sind, nur Star Citizen könnte da wohl schon zum Problem werden, denke ich 'mal ... naja, abwarten.
 
Zuletzt bearbeitet:
Zurück
Oben