News TSMC N4X: Neuer High-Performance-Prozess für PC-Chips

ZeroStrat schrieb:
Auch die RTX 3090 bekommt bei mir nicht mehr als 280W Saft.

Das ist ja auch richtig so. Du nutzt dann eben die Effizienz die der Chip bietet in Kombination mit der großen Chipfläche gut aus.

Wenn es jetzt aber heißt, dass ein neues Fertigungsverfahren die Energieeffizienz nicht steigert, sondern nur mehr Performance bei höherer Spannung erlaubt, dann hast du mit dem neuen Chip auch bei gedrosselter Leistungsaufnahme nichts gegenüber dem alten Chip gewonnen.

Eine RTX4090, die beispielsweise durch das neue Fertigungsverfahren eine 3090 mit deutlich höherem Takt sein könnte, würde in dem Fall hier bei 280 Watt genauso schnell sein, wie deine 3090 (Architekturverbesserungen mal außen vor). Da sehe ich eben das grundlegende Problem. Zumindest für diesen N4X Prozess.


Das war jetzt natürlich nur mal ein grundlegendes Beispiel. Am Ende ist der Effizienzgewinn ja schon von N7 auf N5 gegeben. Dass jetzt von N5 auf N4X die Effizienz nicht besser wird sondern nur der Verbrauch gepusht wird ist ja kein großes Drama. Der Effizienzgewinn über die Jahre kommt ja unterm Strich zum Tragen.
Grundsätzlich kann ich die Philosophie dahinter aber nicht befürworten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo und Tzk
B3nutzer schrieb:
Eine RTX4090, die beispielsweise durch das neue Fertigungsverfahren eine 3090 mit deutlich höherem Takt sein könnte, würde in dem Fall hier bei 280 Watt genauso schnell sein, wie deine 3090 (Architekturverbesserungen mal außen vor). Da sehe ich eben das grundlegende Problem. Zumindest für diesen N4X Prozess.
Das wäre natürlich ein Schuss in den Ofen, aber ich hoffe, dass der N4X eher für CPUs eingesetzt wird, um den Singlecoreboost zu steigern. Außerdem gewinnt eine Grafikkarte ja auch mehr Effizienz durch mehr CUs und mehr IPC.
 
  • Gefällt mir
Reaktionen: Tzk
Neodar schrieb:
An jeder Ecke wird von Klimawandel gesprochen und es wird vor noch krasseren Wetterkatastropehn gewarnt, als man sie jetzt schon weltweit sieht, aber gleichzeitig ballern wir immer mehr Strom in Rechnerhardware rein.
Falscher Ansatz. Dem Hersteller ist das doch egal - du als Kunde hast es in der Hand. Nur wenn du da Last drauf gibst, säuft das Teil auch Strom. Am Ende musst du halt abwägen - ist doch wie im Auto auch. Knall mit 250+ über die BAB oder fahr 130, 150, 180 und setz das ins Verhältnis zum Verbrauch. Ist es dir der Leistungsvorteil wert - dann hau raus. Wenn nicht, dann deckel ein, kauf kleinere Produkte (spart nebenbei Geld) oder kauf gar mal gar nicht - spart noch viel mehr Ressourcen ;)
CDLABSRadonP... schrieb:
Jetzt wird es aber bei GPUs gleichzeitig von beiden Herstellern gemacht, mit Quasivorausansage für kommende Gens und (seit dieser News) auch noch mit Unterstützung von Seiten der Fertigung.
Ne, das eine hat mit dem anderen nix zu tun. Das hier ist ne "Verkaufsveranstaltung". Das gabs früher auch. nur wurde das Medial nicht rum getreten. TSMC wirbt hier mit einem Prozess, der in 2 Jahren in Risiko Produktion und in 3 Jahren dann in Serienfertigung gehen soll. Solche "Angebote" gibt es schon immer - die Auftraggeber vergeben dann Aufträge nach ihren Wünschen - und der Fertiger liefert, mit was er beauftragt wurde. Zudem ist am Ende auch noch viel Marketing drin. Denn was interessieren bitte die 4% mehr "Leistung" auf dem Papier, die hier der N4X ggü. dem N4P liefern kann - als Beispiel. Ein Epyc Chiplet im 64C mit Zen3 kann bei um die 3W pro Core laufen. Das gleiche Chiplet im 5950X kann gut auch mal 20+W pro Core saufen. DAS ist heute gängige Praxis allein durch Marktausrichtung des gleichen Produkts...

Wieso bitte über 4% debattieren wenn wir so schon so drastische Unterschiede haben?
Volker schrieb:
Intel genau so. Ivy Bridge und so alles super grün und effizient weil 0 Konkurrenz, seit 2017 geht es stetig bergab. Jetzt bei Alder Lake ist erstmals wieder etwas Hoffnung zum Besseren.
Ach Volker, was hat dir eigentlich Intel getan, dass du in den Meldungen und auch Kommentaren immer so abwertend argumentierst?
"Es geht stetig bergab" - so bergab, dass Intel Quartalsweise Rekorde einfährt beim Umsatz... Auch die Anspielungen von wegen, ohne den Weltbesten Fertiger TSMC geht es nicht und solche Sätze, die du da rausgehauen hast in den News... Wacht doch endlich mal auf. Es ist nicht relevant, ob man Technologieführer ist. Es ist relevant, was sich am Markt verkauft. Nichts anderes zählt aus der Wirtschaftsbrille.

Wenn der Markt Effizienz will, dann kauft der Markt Effizienz. Aktuell ist dem Markt Effizienz sehr wichtig. Aber Effizienz ungleich Effizienz. Es macht nen riesigen Unterschied, ob du durch bspw. MCM wie es AMD und NV nun vor haben, die Leistungsaufnahme steigerst, aber gleichzeitig die Effizienz aus Leistung und Verbrauch drastisch erhöhst oder ob du nur die Leistungsaufnahme hoch treibst und am Ende kommt quasi nichts mehr bei rum.
Letzteres siehst du bei AMD und Intel bei den TopEnd Produkten. 20+W für ein Zen3 Core, teils 30W bei Intel für Rocket Lake. Der Zen3 Core kann auch 3W im Epyc. Bei overall dann in Summe 225-280W, was immernoch doppelt so viel zum Desktop Produkt ist. Die Leistung steigt auch um deutlich mehr als Faktor 2. Bringt mich aber im Desktop Bereich nicht weiter, weil mir 64C/128T nichts bringen, wenn meine Anwendungen sehr stark nach pro Thread Performance krähen. Also ist der beste Kompromiss so viel wie möglichst Takt bei so vielen wie möglich Kernen da rein zu bringen und über eine Powerdrossel dann mit steigender Breite die Effizienz zu erhöhen.

B3nutzer schrieb:
Eine RTX4090, die beispielsweise durch das neue Fertigungsverfahren eine 3090 mit deutlich höherem Takt sein könnte, würde in dem Fall hier bei 280 Watt genauso schnell sein, wie deine 3090 (Architekturverbesserungen mal außen vor). Da sehe ich eben das grundlegende Problem. Zumindest für diesen N4X Prozess.
Theorie und Praxis ;) So funktioniert das aber halt nicht...
N4X ist hier nichts anderes als ein Marktangebot. Wer von den Herstellern da was benötigt, der kauft es. Es macht überhaupt keinen Sinn hier eine fette 600+mm² GPU in N4X zu bringen. Weil du sehr sicher mit mehr Hardware auf bisschen mehr Fläche mehr wie 4% mehr Performance raus bekommen würdest und gleichsam noch die Effizienz steigt.

Dieser Prozess hier ist für exakt einen Anwendungsfall sinnvoll. Und das ist bedingungslos maximale Performance in der Höhe. Sowas wie ein fiktiver Ultra HighClock Zen5 mit 5,5GHz im Boost oder sowas. Da ist es völlig irrelevant ob ein anderer Prozess 5,2, 5,3GHz in Effizienter könnte. Der erreicht halt die 5,5GHz nicht und ist damit für diesen Anwendungsfall ungeeignet. Es geht um maximale Performance um jeden Preis. Ob sowas aber im Massenmarkt in der Breite angewendet wird, ist äußerst fraglich...
 
  • Gefällt mir
Reaktionen: Tzk
xexex schrieb:
Grundsätzlich jedoch belastet sauber erzeugter Strom nicht die Umwelt
Ist mMn ein Trugschluss, denn auch eine Windkraftanlage oder ein Solarpanel müssen ja gebaut werden und verbrauchen dabei Ressourcen.
Würden wir absolut mit weniger Strom auskommen, bräuchte es auch weniger 'grüne' Erzeuger. (Nicht, dass uns noch der Wind ausgeht oder die Sonne leer wird^^)

Volker schrieb:
Hersteller machen gern effiziente Produkte - wenn sie keine Konkurrenz haben. Doch mit der am Start, müssen sie pushen und das geht am Ende eben am einfachsten über MOOAAAR POWER. Pascal war seinerzeit konkurrenzlos, also konnte sich Nvidia schön grün aufstellen. Jetzt ist das ganz anders. Intel genau so. Ivy Bridge und so alles super grün und effizient weil 0 Konkurrenz, seit 2017 geht es stetig bergab.

Um es mit den Worten des großen Philosophen Uli Hoeneß zu sagen:
Das ist eine populistische Scheiße!
[...]
Eure scheiß Stimmung. Da seid ihr doch dafür verantwortlich, und nicht wir!
Was glaubt Ihr eigentlich wer ihr seid!?

Spaß bei Seite, wir Konsumenten und ganz besonders ihr als reichweitenstarkes Magazin solltet dann auch einfach mal den Fokus entsprechend setzen und aufzeigen, dass manche Entwicklungen Quatsch sind.

Eine RTX3090 bzw. RX6900 oder Alder Lake müssen nicht mit maximalen OC getestet werden. 5 Prozent hin oder her, das ändert doch in den seltensten Fällen etwas daran, ob eine CPU/GPU empfehlenswert ist.
Ein Fazit könnte auch mal ganz deutlich lauten: 'Technisch machbar aber nicht empfehlenswert.'

Fakt ist nämlich, dass Hardware sehr wohl jede Generation effizienter wird, nur opfert ihr den FPS sämtliche Vernunft.

Stellt doch mal ein auf 500 Watt gedeckeltes i7(oder sogar nur i5)/DDR4/3070 (spontane und willkürliche Auswahl) System einem übertakteten i9/DDR5/3090 System gegenüber und zeigt uns, wie viel mehr dann im Spiel noch dabei herum kommt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Der nächste Schritt in die völlig falsche Richtung. Das geht solange gut bis die Politik das Thema für sich entdeckt und Regulierungen auf den Weg gebracht werden. Der gute Igor hatte letztens gezeigt wohin die Reise in den Augen von Intel bei ATX 3.0 Netzteilen gehen soll (bis zu 2,4 KW Lastspitzen), das ist völlig absurd!

Schon mit ~350W Leistungsaufnahme heizt die Grafikkarte einen Raum beträchtlich auf, mit den geplanten 500-600W wird es unerträglich. Ohne Klimaanlage ist das überhaupt nicht mehr nutzbar und was braucht eine Klimaanlage? Richtig, Strom ... und das nicht zu knapp.
 
  • Gefällt mir
Reaktionen: Celinna, Thrask und Onkel Föhn
Alles kein Problem, bauen wir halt in Deutschland wieder Atomkraftwerke und bis 2030 kann man doch auch die Kohlekraftwerke wieder per Verfügung doch bis 2050 am Netz lassen. Schließlich müssen 80 Millionen PC und 80 Millionen Autos damit befeuert werden. Klimschutz brauch tkein Schwein, Onkel Trump hatte immer Recht. Greta erzählt nur Unsinn. ^^
 
Finde ich nicht gut, gibt es definitiv genug Leute, denen der Stromverbrauch egal ist und daher das beste vom besten kaufen.
 
Neodar schrieb:
Was angesichts der anhaltenden welteweiten Klimadiskussion total groteskt anmutet.

An jeder Ecke wird von Klimawandel gesprochen und es wird vor noch krasseren Wetterkatastropehn gewarnt, als man sie jetzt schon weltweit sieht, aber gleichzeitig ballern wir immer mehr Strom in Rechnerhardware rein.
Ich finde diese Entwicklung in der Hardwarewelt auch zunehmend "unberuhigend", um es mal sanft auszudrücken.
In einer Dokumentation sprach ein Professor zudem letztens von einem zulünftigen Strompreis, der wohl noch weit über die 35 ct + ansteigen könnte bei uns in DE.
 
v_ossi schrieb:
Stellt doch mal ein auf 500 Watt gedeckeltes i7(oder sogar nur i5)/DDR4/3070 (spontane und willkürliche Auswahl) System einem übertakteten i9/DDR5/3090 System gegenüber und zeigt uns, wie viel mehr dann im Spiel noch dabei herum kommt.
Das wird kaum Unterschiedlich sein. In Spielen liegt ein offener 12900K teilweise unter 100W und somit das Gesamtsystem unter 500W. In relevanten ( Gpu Limit) Auflösungen natürlich…

Aber ja, man kann auch mit einem 45 oder 65W Alder Lake oder Ryzen super spielen, bei dem man zusätzlich das Powerlimit der Gpu runterfährt und einen Framelimiter setzt.
 
Colindo schrieb:
Ich sehe mich in der Zukunft deutlich als jemand, der das Topmodell der Serie meidet. Für mich sind die 300W wie bei der Vega64 wirklich genug Abwärme im Raum.

Das habe ich mir damals schon bei der 1070 mit 150 Watt gesagt und jetzt habe ich immer noch die 1070 im Rechner. :heilig:

Bei der nächsten Generation wünsche ich mir 3090 Leistung in der 4060/70 Serie mit weniger Stromverbrauch. 200-250 Watt mit 3090 Leistung und ich wäre dabei.
 
  • Gefällt mir
Reaktionen: Colindo
@Tzk Drauf wollte ich ja hinaus.

Hier und in anderen Magazinen wird oft die High-End Hardware (übertaktet) beworben getestet und dann wird suggeriert, dass man unter einer 3080 quasi nicht mehr zocken kann (bewusste Übertreibung zur Dramatisierung), auch wenn das ?zunehmend? am Alltag der Leser vorbei geht.

Selbst in einem Enthusiasten Forum sind die 3090s dieser Welt eine Nische.

Framelimiter und hoch statt ultra Einstellungen und die Welt sieht deutlich angenehmer aus.

Finde, dass man sich zunehmend den Herstellern anbiedert, statt den Lesern gegenüber Hilfestellung zu leisten.
 
  • Gefällt mir
Reaktionen: Corpus Delicti und Tzk
Die Wirtschaft ist eben aus immer mehr zu verkaufen. Da muss es dann eben irgendwann der 4k Monitor und 4k PC sein. Für FullHD kann man vieles eben nicht mehr teuer verkaufen, dabei reicht es für die meisten völlig aus. Ich habe mit meiner 1070 in jedem Spiel noch jede Menge Spaß und kaum Einschränkungen in den Spielen. Eben dann bei FullHD. Ultra Einstellungen sind zudem häufig auch nicht groß anders als hohe Einstellungen.

Aber naja, dann muss man eben Raytracing einführen und kann wieder Hardware verkaufen. Eine Endlosschleife...
 
  • Gefällt mir
Reaktionen: v_ossi
Dieser ganzen Entwicklung stehe ich eher skeptisch gegenüber.
Wenn für einen solchen Prozess nicht ein Abnehmer vorhanden wäre, würden die das nicht anbieten. Jedoch ist das in meinen Augen der falsche Weg.

Dadurch ist es nicht nötig innovativ zu sein, um effizienter zu werden. Die Leistung kann ja auch so erhöht werden.

Jedoch kann im Hinblick auf die Erderwärmung der einzige Weg sein, konsequent auf Effizienz zu entwickeln (auch Windkraft und Solarzellen sind nicht CO2 frei).
 
Aktuell schaut es halt wirklich so aus, als dass man auf Apple Hardware setzen müsste, wenn man mächtig und energieeffizient haben mag.
 
Uff. Dann wäre es wohl ratsam, im neuen PC ein Netzteil mit 700 oder 800 W zu verbauen.
 
Kurze Frage ob ich das so richtig sehe?

Prozess A) Ich habe einen Prozess mit 100% Leistung und 100% Effizienz.
Prozess A1) Entweder 112% Leistung oder 115% Effizienz (so war es bisher)

Prozess A1.1 Leistung) Nur 115% Leistung (neuer Prozess)

Grundsätzlich ist das doch erstmal eine gute Sache? Wenn sich beim alten Prozess für die Leistung entschieden hat, dann hat man 112% bekommen, nun kann man aber auch 115% Leistung bekommen. Dadurch dass der Stromverbrauch gleich bleibt, ist der Prozess A1.1 ja sogar effizienter als der Prozess A1 mit 112% Leistung.

Der Prozess A1 bringt ja nur A ODER B und nicht A UND B. Perfekt wäre es sogar noch, wenn man einen Prozess A1.2 Effizienz machen würde wo man sich nur auf die Effizienz konzentriert.

-> Vorteil für die Kunden, die sich einen gezielten Prozess für ihr Anliegen auswählen können. Nachteil für TSMC, weil man mehrere Prozesse braucht und nicht mehr 1 Prozess für Alles verwenden kann.
 
Ayo34 schrieb:
Dadurch dass der Stromverbrauch gleich bleibt, ist der Prozess A1.1 ja sogar effizienter als der Prozess A1 mit 112% Leistung.
Tatsächlich bleibt der Stromverbrauch aber nicht gleich. TSMC erwähnt die gestiegenen Leckströme und damit geht es darum, dass der Prozess höher skaliert, also mit steigendem Verbrauch nicht in eine Wand fährt. Aber die Mehrleistung bedarf auch mehr Leistungsaufnahme.
 
  • Gefällt mir
Reaktionen: Tzk
Hydrogenium schrieb:
Dadurch ist es nicht nötig innovativ zu sein, um effizienter zu werden. Die Leistung kann ja auch so erhöht werden.
Das ist halt einfach so nicht zutreffend.
Man kann nicht mit jedem beliebigen Prozess jeden beliebigen Leistungspunkt erreichen. Das Ding hier ist dafür da, ganz oben das aller letzte bisschen Leistung raus zu quetschen. Das geht ganz klar zu lasten der Effizienz. Aber man darf einfach nicht den Fehler machen und annehmen, dass die Effizienz mit der Leistung linear skaliert. Das ist nämlich praktisch so nicht der Fall.

Normal geht im üblichen Leistungsbereich Takt 1:1 in den Verbrauch und Spannung im Quadrat. Da du für immer mehr Takt immer mehr Spannung brauchst, explodiert obenraus die Leistungsaufnahme. Das ist faktisch seit Jahrzenten die gängige Realität. Da braucht es keinen Prozess oder irgendwas, was da nochmal etwas mehr Leistung raus kitzelt um diesen Zustand sichtbar zu machen, weil das schon die ganze Zeit praktisch so gelebt wird. Der Unterschied ist nur, wo die anderen Verfahren oben einfach dicht machen, wird wahrscheinlich N4X nochmal ne Schippe drauf legen können... Das ist KEIN! Massenmarkt für Jedermann Prozess. Das ist für diesen einen Anwendungsfall, wo exakt das notwendig ist, gedacht, weil mehr geliefert wird als alles was sonst überhaupt möglich ist.

Mal davon ab, die ganze Diskussion ist reichlich sinnlos. Wenn man in Foren über Effizienz debattiert und die Leute an ihren heimischen PCs hocken um irrelevante Texte in ein politisch, wirtschaftlich und ökologisch völlig irrelevantes Medium einzuhämmern, was am Ende nichts anderes ist, als eine Energieverschwendung sondersgleichen ;) Da stellt sich die Frage, wie sinnvoll sind solche Debatten überhaupt? Es geht doch gar nicht um die grüne Umwelt. Würde man hier "Grün" wollen, macht den verdammten PC aus und geht raus... DAS bringt Punkte. Nicht die Laberei in den Foren... Aber das ist nur meine Meinung dazu ;)

Ayo34 schrieb:
Grundsätzlich ist das doch erstmal eine gute Sache? Wenn sich beim alten Prozess für die Leistung entschieden hat, dann hat man 112% bekommen, nun kann man aber auch 115% Leistung bekommen. Dadurch dass der Stromverbrauch gleich bleibt, ist der Prozess A1.1 ja sogar effizienter als der Prozess A1 mit 112% Leistung.
So eine Rechnung bringt nichts. Denn das ist praktisch völlig irrelevant.
Nimm dir AMDs Zen3 CPUs als Beispiel. Du kannst einen 64C 225W Epyc nutzen, der kommt auf grob ca. 3W pro Core bei Volllast. Du kannst mit dem gleichen! Chiplet im gleichen Prozess einen 5950X nutzen, der auch mal 20+W pro Core versäuft, bei 2T Last auf einem Core - in Summe aber bei 142W deckelt, die er dann in dem Fall nichtmal ansatzweise ausschöpft.

Der Unterschied ist nur - der Epyc wird nicht im Ansatz die Leistungswerte bei 1-2T Last erreichen wie der 5950X. Und der 5950X wird viel eher bei MT dicht machen und ineffizienter sein als der Epyc. Und da reden wir über zwei bis dreistellige Ganzzahlen-Prozentwerte vor dem Komma an Unterschied. Nicht nur über ne Hand voll ;)

Btw. wird für N4X keine Aussage zum Verbrauch gemacht. Das heist, um die nochmal 4% da oben zu erreichen wird nicht gesagt, wie viel mehr Leistung man dafür rein geben muss. Anzunehmen ist, dass man dafür nochmal deutlich mehr drauf geben müsse wie das, was der N4P bei 112% erreicht. Du sagst es ja richtigerweise selbst schon - es ist kein UND, es ist ein ODER. 112% oder so und so viel weniger Energie. Was fehlt ist dabei die Aussage, wie viel Mehr Energie der Spaß benötigt um die 112% zu erreichen genau so wie es fehlt, was dann da nochmal oben drauf kommt, für nochmal die paar Prozent ;)

Wie gesagt - lasst euch nicht blenden. Das ist ne Marketingveranstaltung - da gehts darum einen Prozess zu bewerben. Man wird über nichts sprechen, was nicht gut ankommt. Also spricht man nicht von Leistungsaufnahme UND Leistung. Sondern von Leistungsaufnahme ODER Leistung ;) Also die Vorteile. Aber nicht die Kehrseite derer ;)

Eigentlich wäre hier der Punkt, wo die Redaktionen mitwirkend eingreifen könnten und solche Fakten auch mal klar beschreiben könnten. Leider wird das nicht gemacht. Da lässt man lieber die Welt im unklaren und die Leute spekulieren... Die Reaktion hier von vielen Teilnehmern spricht einfach Bände. Sogut wie Niemand hat hier verstanden worum es geht - weil es nirgendwo steht und die praktische eigene Erfahrung (logischerweise) fehlt.
 
  • Gefällt mir
Reaktionen: LamaMitHut und xexex
SV3N schrieb:
Für die Speerspitzen von RDNA 3 und Lovelace sind ja 400 Watt+ schon mehrfach im Gespräch gewesen.

Effizienz und ein möglichst geringer Stromverbrauch scheinen nicht mehr so angesagt zu sein. Bin echt gespannt, wo die Reise hingeht.
Da sagst du etwas Wahres! Die angekündigte 3090 ti nimmt 450 Watt aus der Steckdose.
Der Intel 12900k bis 240 Watt. Vom Klimaschutz redet keiner mehr. Wo die Reise hingeht?
Die Erde braucht uns nicht, und das zeigt sie uns gerade sehr deutlich mit Covid, Flut- und Hitzewellen.....
 
fdsonne schrieb:
Du sagst es ja richtigerweise selbst schon - es ist kein UND, es ist ein ODER. 112% oder so und so viel weniger Energie. Was fehlt ist dabei die Aussage, wie viel Mehr Energie der Spaß benötigt um die 112% zu erreichen genau so wie es fehlt, was dann da nochmal oben drauf kommt, für nochmal die paar Prozent ;)

Normal wird ein neuer Prozess immer mit dem alten verglichen bei gleichem Stromverbrauch. Der neue Prozess ist dann z.B. 112% schneller oder verbraucht 15% weniger Strom als der alte Prozess. Sonst würde der Vergleich und die Angaben ja gar kein Sinn machen. Ich bin jetzt erstmal davon ausgegangen, dass diese Vergleichbarkeit auch hier gilt.

Die Grafikkarten verbrauchen mehr, weil die Grafikkarten "größer" werden. Würde man die gleiche Grafikkarte nur mit dem neuen Prozess aufziehen, dann hätten wir eben keine 50% Leistungssteigerung, sondern nur 12% Leistungssteigerung oder alternativ die gleiche Leistung mit weniger Stromverbrach.

Aber wer kauft schon für 12% mehr Leistung oder 15% weniger Stromverbrauch eine neue Karte?
 
Zurück
Oben