News Nvidia Blackwell: RTX 5000 mit bis zu 512 Bit zwischen Fantasie und Wirklichkeit

OdinHades schrieb:
Aber wie gesagt, hört nicht auf mich, ich hab absolut null Ahnung von gar nix.
Merkt man definitiv đŸ€Ł

Ansonsten als Tipp:
Einfach mal Cyberpunk oder Alan Wake 2 in 4K mit Pathtracing und alles auf Max aufgedreht angucken, da reicht dann plötzlich auch eine 4090 nicht mehr aus fĂŒr nativ 4K60, aber selbst mit DLSS Q + FG kommt man mit Ach und Krach auf 50-60 FPS.

Und die Games sehen um einiges besser aus als (das noch immer sehr gut aussehende) Red Dead Redemption 2. 😏
 
  • GefĂ€llt mir
Reaktionen: MrHeisenberg und Quidproquo77
OdinHades schrieb:
Da fordern einige Zeitgenossen ohne RĂŒcksicht auf Verluste immer mehr brachiale Grafikleistung und ich warte bis heute auf ein Spiel, dessen Optik allein schon aktuelle High-End-Karten mal ansatzweise rechtfertigen wĂŒrde.

Ich bin ja kein Experte, ich hab von den technischen HintergrĂŒnden kaum noch Ahnung, (...)
Findest du diese beiden Aussagen untereinander nicht etwas widersprĂŒchlich?
Jeder Schritt zu besserer GrafikqualitÀt kostet "exponentiell" mehr Leistung, deshalb fing man an auf Raytracing umzusteigen, damit man dem entgegenwirkt.

Welche Verluste soll es fĂŒr die Allgemeinheit geben, wenn Hardware im High End und Forschungsbereich begleitet von extremen ChipgrĂ¶ĂŸen und immer teurer werdenden Herstellungskosten nach oben geht, wenn die "Zeitgenossen" dennoch immer mehr Leistung/FPS/QualitĂ€t fĂŒr weniger Geld bekommen?
Beides schließt sich absolut nicht aus.

Ich kann mir privat auch kein Rechenzentrum in den Keller stellen, weil das zu teuer ist.
Die Argumentation kann ich jedenfalls nicht so ganz nachvollziehen, auch wenn ich sie ironisch ĂŒbersetze.
OdinHades schrieb:
Aber fĂŒr meine zurĂŒckgebliebenen Laien-Augen gibt es bis heute kein Spiel, das hĂŒbscher aussieht als Red Dead Redemption 2. Erschienen im Jahr 2018. LĂ€uft auf der PS4 mit weiß-ich-nicht-wie-wenig VRAM.
Dann achte einmal auf die Texturen, die Assets, die Physik, die Beleuchtung, die miese KantenglÀttung.
OdinHades schrieb:
Auch noch so viel VRAM und Teraflops können keine Konzentration auf wichtige Details ersetzen...
Und zu wenig V-RAM ermöglicht keine ordentlichen Texturen, etwa wie diese in Red Dead Redemption 2...
NatĂŒrlich muss die Speichermenge irgendwo auch wirtschaftlich sein, aber 8GB auf einer 4060/7600 und "nur" 12 auf einer 7700XT oder RTX 4070 bremsen die Entwicklung.

Laufen ultra Details nicht immer durchgehend auf solchen "SpeicherkrĂŒppeln" ist ja nach Sicht vieler der Entwickler der Schuldige.
 
Zuletzt bearbeitet:
ComputerJunge schrieb:
Meinst Du die finanzierenden Publisher oder wirklich diejenigen, die die Umsetzung, also u. a. Entwickler?
Ich meine schon die Entwickler. Man sieht einfach, auch an der Grafik, ob da jemand richtig Bock auf die Entwicklung hatte oder einfach nur seine Arbeit runtergerissen hat. NatĂŒrlich kann da ein gieriger Publisher gerne mal im Weg stehen. Eben deshalb finden sich die grĂ¶ĂŸten Perlen dieser Tage ja auch im Indie-Bereich. Und auch da gibt es echt hĂŒbsche Grafik zu sehen.

Mein Punkt ist einfach nur: man muss keine 4090 ausreizen, um etwas Ansehnliches auf den Bildschirm zu zaubern. Beim heutigen technologischen Stand ist doch das Design sehr viel wichtiger. Ganz blöd ausgedrĂŒckt: Eine Mona Lisa in 480p sehe ich mir lieber an als sinnentleertes Gekritzel in 8K.

BloodGod schrieb:
da reicht dann plötzlich auch eine 4090 nicht mehr aus fĂŒr nativ 4K60, aber selbst mit DLSS Q + FG kommt man mit Ach und Krach auf 50-60 FPS.

Mir ist schon klar, dass man jede Hardware in die Knie zwingen kann. Aber meinem Auge ergibt sich der Vorteil daraus nicht. Wenn ich bei heutigen Spielen die Regler zwei bis drei Stufen nach links schiebe, fallen mir exakt null Unterschiede auf. Allenfalls bei der Bildrate, was ich aber sogar fĂŒr etwas Gutes erachte. Selbst bei Vergleichsbildern in Tests muss ich schon sehr genau hinschauen und weiß dabei mit Sicherheit, dass die dort herausgestellten Details mir beim Spielen niemals auffallen wĂŒrden.
 
  • GefĂ€llt mir
Reaktionen: M11E
OdinHades schrieb:
Ich bin ja kein Experte, ich hab von den technischen HintergrĂŒnden kaum noch Ahnung, weil ich mich Anfang der 2000er Jahre weitgehend ausgeklinkt habe. Aber fĂŒr meine zurĂŒckgebliebenen Laien-Augen gibt es bis heute kein Spiel, das hĂŒbscher aussieht als Red Dead Redemption 2. Erschienen im Jahr 2018. LĂ€uft auf der PS4 mit weiß-ich-nicht-wie-wenig VRAM.

Technik ist erst mal nur ein Werkzeug. Was damit passiert, bestimmt der, der es einsetzt. Zumindest mal: Solchen EinschrĂ€nkungen unterliegt auch die Hardware der letzten Generation nicht mehr. :D Nicht vergessen werden sollte: Nicht jedes Spielkonzept profitiert davon, immer realistischer zu werden bzw. auszusehen. Das wĂ€re auch sehr schlecht. Denn Entwicklungszyklen von einem halben Jahrzehnt sind fĂŒr Blockbusterspiele mittlerweile die absolute Norm. Kein Wunder, dass sich alles drauf stĂŒrzt wie auf eine Oase in der WĂŒste, wenn mal wieder eins rauskommt, das taugt und ohne dreißig Patches einigermaßen reibungslos lĂ€uft.

Allerdings profitiert letztlich auch Low-End-Hardware vom Fortschritt. Diskutabel ist, dass am GPU-Markt selbst die das Vielfache einer Low-End-CPU kostet. Aber insbesondere der einzig derzeit wirklich relevante Anbieter kann sich das eben leisten. Gaming ist lĂ€ngst nicht mehr sein Fokus, sowieso. Spiele gibts auch fĂŒr Hardware der vorletzten Generation fĂŒr drei Leben. Und die ĂŒberwĂ€ltigende Masse selbst an PC-Neuveröffentlichungen lĂ€uft sowieso selbst auf 6-8 Jahre alter Hardware reibungslos. Wird sich nicht Ă€ndern. Wenn ĂŒberhaupt, werden diese Spiele ihren Marktanteil in Relation noch ausbauen. Alleine schon, weil sie kein halbes Jahrzehnt im Ofen brauchen, bis sie einigermaßen gar sind. The Elder Scrolls 7 kommt ĂŒbrigens , auch KI-gestĂŒtzt in der Entwicklung, so ca. 2045 raus. Einige hier werden's eventuell sogar noch erleben. ;)

Ich bin zwar auch gespannt, was etwa Warhorse Studios mit ihrem nĂ€chsten Realismus-Wunder vollbringen werden. Aber gleichzeitig wundert es mich nicht, dass es von Entwicklerseite mittlerweile Gegenbewegungen gibt -- und das selbst von Leuten, die vorher grĂ¶ĂŸere Studien geleitet hatten. Der Aufwand und die Zeit, die hier alleine in winzige Details fließt, ist enorm. Bei Projekten, die deshalb mittlerweile ein halbes Jahrzehnt oder lĂ€nger verschlingen, ist das nicht eben wenig Lebenszeit.

"I remember this funny moment where we were doing Dishonored, and I asked my lead programmer how many characters I could have in combat. And he answered something between five and six. I thought well, okay. It makes sense. The AI is what it is, and we had characters with 10,000 polys or whatever they were. Fast forward four or five years, we're doing Prey. It's a new engine, new technology, new hardware. I'm back with my lead programmer, same question. How many characters can we have? Maybe five or six. The only difference between one generation to the next was that the budget had doubled, and because the budget was doubled, it goes into more people, instead of taking three months to make a character it takes six months now, there's more optimization that is required, more of everything, every detail, making sure the eyes are perfect and the sun shines the right way."
 
Zuletzt bearbeitet:
OdinHades schrieb:
Mir ist schon klar, dass man jede Hardware in die Knie zwingen kann. Aber meinem Auge ergibt sich der Vorteil daraus nicht.

Da kann ich dir tatsÀchlich nicht helfen, dass können nur Optiker und AugenÀrzte mit einem Laser bewaffnet, ich sehe die Unterschiede nÀmlich sehr signifikant und deutlich.

Du nicht? Ja hast recht, dass wĂŒrde mich tatsĂ€chlich auch ĂŒbel ankotzen. Bin ganz froh nicht deine Augen zu haben 😏
 
  • GefĂ€llt mir
Reaktionen: Sinatra81
Stanzlinger schrieb:
Es gibt kein Grundrecht auf eine Grafikarte. Wer es sich nicht leisten, muss halt seine AnsprĂŒche runter drehen.
Das ist mir klar und ich sehe das auch genauso wie du. Was mir gar nicht gefiel, war deine als selbstverstÀndlich gesehene Annahme, dass doch jeder Arbeitnehmer ununterbrochen (und vor allem ausreichend) Gehaltserhöhung bekommt.
 
  • GefĂ€llt mir
Reaktionen: FLCL
Ich fĂ€nde es spannend wenn man mal zu DisplayPort Altmode via USB-C als Anschluss auf den Boards ĂŒbergehen wĂŒrde. Ob der Speicher nun mit 512bit angebunden ist, ist unwichtig und unrealistisch zugleich.
 
@PTS Ich kann dir sagen, hĂ€tten alle GPUs und Konsolen 48 oder mehr GB RAM und sich die Rohleistung dazu wĂŒrde WENIGER und nicht mehr optimiert.
Optimiert wird dann, wenn wo wenig Ressourcen vorhanden sind, nicht viel.
Der Gedanke, dass Entwickler sich drauf stĂŒrzen und es voll ausnutzen wĂŒrden ist auch falsch, denn das treibt nur die Entwicklungskosten in die Höhe bei ĂŒberschaubarem Grafiksprung
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: R4mses und ReVan1199
Cohen schrieb:
Eine 24GB-PS6 könnte vermutlich nur 16 GB fĂŒr Grafikberechnungen "abzwacken", die restlichen 8 GB dann fĂŒr OS + Spielaufzeichnung im Hintergrund + sonstige Berechnungen des Spiels.
Aktuell sind es 16GB RAM und davon gehen 2,5GB ans OS.
bensen schrieb:
Die Transistordichte von GA102 (8LPP) zu AD102 (4N) ist um 180% angestiegen.
Es stimmt, das Samsung allgemein eine geringere Dichte hatte als TSMC.
Aber da fÀllst du auch auf ein Marketing Trick rein. Faktisch stimmt es zwar, aber da steckt mehr dahinter.
Die hohe Transistordichte kommt schlicht von dem Cache, aber Transistordichte die Kerne selbst ist da nicht so stark angestiegen.
Der Cache macht etwa ein Viertel des Chips aus, aber beinhaltet mehr als ein Drittel der Transistoren. Deshalb ist Cache ja teuer.
HÀtte RTX5000 auf einmal genausoviel Cache wie RTX3000, dann hÀtte RTX5000 eine geringere Transistordichte als RTX4000...

bensen schrieb:
OK, du willst so 40% mehr SM und dazu 80% mehr Cache.
...
ICH will gar nichts, also beruhig dich erst mal.
Das stand so in GerĂŒchten, genauso wie die 512bit bzw 384bit Memorybus.
Die GerĂŒchte sagen das Blackwell 128MB Cache haben wird. Nun das wĂ€ren ~80% mehr als die 72MB der 4090, aber "nur" 33% mehr als die 96MB des AD102...
Auch nachzulesen hier:
https://www.computerbase.de/news/gr...en-grob-die-geforce-rtx-5090-umreissen.85530/

Die 70% mehr Leistung sind auch nicht von mir, sondern eine SchĂ€tzung von anderen anhand der GerĂŒchte.
Siehe hier:
https://www.pcgameshardware.de/Gefo...RTX-5090-mit-70-Prozent-Mehrleistung-1441970/
 
OdinHades schrieb:
Man sieht einfach, auch an der Grafik, ob da jemand richtig Bock auf die Entwicklung hatte oder einfach nur seine Arbeit runtergerissen hat.
Da bin ich mir nicht so sicher. Es wird natĂŒrlich so sein, dass es wie in jedem Unternehmen professionelle Luschen gibt.

Ich denke aber schon, dass dies in der Breite primÀr ein Thema der Firmenkultur ist. Die Produkte werden ja final freigegeben.
Auf die lÀngere Sicht sammelt sich in solchen Unternehmen dann wohl in der Tat eher eine Truppe von eher "Desillusionierten". Da bin ich bei Dir.
Andererseits: Mir hat’s Pioneers of Pagonia "angetan". Die Grafik ist jetzt wahrlich kein Kracher, aber dennoch fĂŒhle ich das Herzblut eigentlich an jedem Pixel. Man merkt einfach den qualitativen Anspruch. Das liegt m. E. daran, dass es gelungen ist, ein kleines Team von ÜberzeugungstĂ€tern aufzubauen. Es ist dort offensichtlich eben keine Fließbandarbeit.
 
Kommt mit der 6000 Serie. Immer schön langsam damit der Markt ausgepresst werden kann. So wie damals bei Intel mit den Kernen...
 
PTS schrieb:
es wĂ€re auch schon super wenn wir JETZT 48GB VRAM in jeder Kiste hĂ€tten, dann wĂŒrden die Spiele Entwickler um einiges Flotter arbeiten können zwecks Kompilieren.
Halte ich fĂŒr ein GerĂŒcht.
Orientiert wird sich am schwÀchsten Glied und das sind in der Regel die Spielekonsolen von Microsoft und Sony.
 
Unti schrieb:
Mining ist wohl nicht gerade voll aussagekrÀftig.
Mir schon auch klar !
Nur ging es (mir) darum, dass Leute schon bereit waren 3000 € fĂŒr eine GPU zu zahlen (Mining hin od. her) !
ErgÀnzung ()

bensen schrieb:
Nur war er da nicht halb so schnell, sondern 1/8 so schnell. :daumen:
Das macht die "Sache" allerdings NICHT besser. Aber sich was schön reden geht immer ... :daumen:
 
BloodGod schrieb:
Merkt man definitiv đŸ€Ł

Ansonsten als Tipp:
Einfach mal Cyberpunk oder Alan Wake 2 in 4K mit Pathtracing und alles auf Max aufgedreht angucken, da reicht dann plötzlich auch eine 4090 nicht mehr aus fĂŒr nativ 4K60, aber selbst mit DLSS Q + FG kommt man mit Ach und Krach auf 50-60 FPS.

Und die Games sehen um einiges besser aus als (das noch immer sehr gut aussehende) Red Dead Redemption 2. 😏

Absolut. Ich glaube, die Frage ist weniger, ob Alan Wake 2 mit Pathtracing noch realistischer aussieht als RDR2. Die Frage ist eventuell viel mehr, ob einem die noch einmal erhöhte Pixel-Perfektion zwei, drei Monatsmieten wert ist und/oder die Erfahrung entscheidend verbessert. Und das fĂŒr eine einzige Komponente, die ohne PC drumherum so viel Value liefert wie eine TiefkĂŒhlpizza ohne Backofen. Das ist sehr verschieden. Auch deshalb: Ein Sprung von C64 (VorgĂ€nger) auf Amiga (direkter Nachfolger) ist das nicht. Man muss zunehmend genauer hinsehen, braucht bisweilen sogar TechnikverstĂ€ndnis bis Enthusiasmus, um die Unterschiede alle en detail ausmachen zu können und sich an ihnen zu erfreuen.

Das wird weiter zunehmen. Nicht, weil Technik stillsteht. Sondern weil der Minimum-Standard immer weiter steigt. Wirklichen Fotorealismus gibts auch bei Realismusspielen noch nicht. Gleichzeitig sind allerdings die Zeiten vorbei, in denen ein Crysis mit seinem Fotorealismus als Ziel auf niedrigen Details wie ein komplett anderes Spiel aussah als auf selbst mittleren: Keinerlei Schatten, keine Effekte, einfachste Beleuchtung und Texturen, fĂŒr die sich Unreal Tournament geschĂ€mt hĂ€tte. Und das, obwohl es in Sachen Hardwarehunger noch immer gigantische Unterschiede zwischen den Settings gibt.

Firmen wie Nintendo haben sich vor Jahrzehnten bereits bewusst aus diesem WettrĂŒsten verabschiedet. Spielen wie dem letzten Zelda scheint das kaum zu schaden. Die punkten dafĂŒr mit etwas anderem, wie man auch viral gehenden Videos entnehmen konnte. Ein Paradoxon bei all dem angestrebten Realismus samt aufwĂ€ndiger Assets: Um das Niveau der Features Ă€lterer Spiele auch nur zu halten, ist trotzdem mehr Aufwand vonnöten. Siehe die Entwicklung der Battlefield-Reihe samt ihrer mal mehr, mal weniger zerstörbaren Umgebung. Selbst neulich in Starfield vermissten Fans Features, die bei Bethesda schon viele Jahre Standard waren. Und was Alan Wake 2 betrifft: Ich habe schon Leute getroffen, die das als semi-interaktive Walking Sim verunglimpft haben.
 
Zuletzt bearbeitet:
SSD960 schrieb:
Kommt mit der 6000 Serie. Immer schön langsam damit der Markt ausgepresst werden kann. So wie damals bei Intel mit den Kernen...

Ich wĂŒrde auch gleich alles raushauen das die Konkurrenz gleich Insolvenz anmelden kann....
 
lynx007 schrieb:
Ein 512bit wĂ€re aber nicht klein! Gerade die I/Os fressen ja viel FlĂ€che.... Warum sollte aus KostengrĂŒnden die Kommende Gen, ein 512bit bekommen... wen bei Ada daran gespart hat?! Und wen man jetzt dank GDDR7 praktisch "4 free" 30% mehr speicher bekommt?
Ich schrieb ja auch nicht, dass es ein 512bit Speicherinterface wird, denn ich wĂŒrde ein 256bit mit GDDR7X fast fĂŒr realistischer halten um 32 GB bieten zu können (vermutlich werden es aber wieder 384bit mit "nur" 24 GB) wenn der normale GDDR7 bis angeblich 37 Gbps schaffen soll, wenn die RTX/PTX 5090 eine reine Gamingkarte werden sollte, denn dafĂŒr dĂŒrfte die Bandbreite eigentlich reichen, es sei denn man visiert 8K Gaming an bzw. vermarktet die Karte diesbzgl. o.Ă€.

Allerdings gĂ€be es fĂŒr nVidia die Option die Titan Grafikartenreihe wieder zu beleben, um dann ein semi-professionelles A.I./Gaming-Flaggschiff zu schaffen (evt. anstelle einer RTX/PTX 5090) und dafĂŒr böte sich dann schon evt. ein 512bit Speicherinterface an und fĂŒr eine neue nVidia Grafikkarte der Titan-Reihe wĂŒrde ich auch mindestens 32 GB fĂŒr standesgemĂ€ĂŸ halten ;).

Wenn nVidia Blackwell (auch) so ein A.I.-Gaming Mischansatz wĂ€re (was ich gar nicht fĂŒr unwahrscheinlich halte, dass man darauf pokern wird) dĂŒrfte sich wegen Produkt-Verknappung/-Zweckentfremdung nVidia wieder dumm und dĂ€mlich verdienen.

Wie wĂ€hrend des Kryptomining-Booms wĂŒrden neue Preishöhen - damals durch Wegkauf der Gaming-Karten durch Miningfarmbetreiber - sich jetzt durch den Wegkauf der auch fĂŒr A.I. Anwendungen passablen Gaming-Karten und der generellen Knappheit und hohen Preisen der spezialisierten/professionellen A.I.-Karten dann eine wieder eine Preisexplosion vollziehen (auch wenn Grafikkarten momentan - insbesondere im Einsteigersegment - meist immer noch alles andere als gĂŒnstig sind).

nVidia verbaut ungerne mehr Speicher als das absolute zum Marktstart nötige Minimum (manchmal auch weniger, dafĂŒr sind ja all die nVidia BauernfĂ€nger-Grafikkarten ein Indiz wie damals die GTX 970 mit nur effektiven 3.5GB, die GTX 1060 3GB, vor kurzem die RTX 3050 mit 6 GB, usw.) um Leute frĂŒhstmöglich wieder zum aufrĂŒsten (idealer Weise auf deren neue, wieder speicher-verknappte Karten) zu bewegen, es sei denn man zahlt an sich schon einen Enthusiasten-/Haloprodukt-Preis wie bei der RTX 3090(Ti) damals oder RTX 4090 aktuell bspw.

Am Ende muss man abwarten welche Option nVidia wĂ€hlt, es gibt viele Möglichkeiten und die jetzigen (Speicher-)Leaks halte ich grĂ¶ĂŸtenteils fĂŒr Blödsinn und Aufmerksamkeitsschinderei/Clickbait, egal von wem.
 
OdinHades schrieb:
Wenn ich bei heutigen Spielen die Regler zwei bis drei Stufen nach links schiebe, fallen mir exakt null Unterschiede auf
Es gibt aber auch Leute, die jedes einzelne Bit aus einem MP3-Stream heraushören können. Die mĂŒssen auch zwangslĂ€ufig bei Spielen die Regler alle nach rechts haben. Diese "massiven Hochfrequenz Gamer" brauchen nunmal die aktuellste Hochleistungshardware. :p
 
Beg1 schrieb:
FĂŒr Gaming mĂŒsste es nicht mehr Speicher (24GB) sein, fĂŒr AI kann es nicht genug sein.
Da AI vermutlich auch im privaten Bereich zu einem Umsatztreiber wird, vermute ich einen generellen Anstieg der SpeicherkapazitÀt.
Mit GDDR7 sind etwa +40% höhere Taktraten bezahlbar zu machen.
384 Bit Interface sind 6 StĂŒck GDDR7 Chips, die 64 Bit sind da ĂŒblich.
24 GByte also machbar.

Auch bei 256 Bit, denn 6 GByte Chips sind auch geplant.
 
theGucky schrieb:
Aber da fÀllst du auch auf ein Marketing Trick rein.
Der Witz des Tages. Du erzÀhlst uns, der Schritt von 8LPP auf 4N war kleiner als der von 4N auf N3E und ich bin derjenige der auf Marketing reingefallen ist.

theGucky schrieb:
Die hohe Transistordichte kommt schlicht von dem Cache, aber Transistordichte die Kerne selbst ist da nicht so stark angestiegen.
Das spielt mit rein, hat aber bei weitem nicht so einen großen Einfluss wie du hier weismachen willst, weil du hier mit falschen Zahlen hantierst (siehe unten).
Die theoretische Transistordichte fĂŒr Logik ist bei 8LPP 53 MT/mmÂČ. FĂŒr N5 sind es 138 MT/mmÂČ (Quelle: semiwiki.com). Sind also +160%. Ist immer noch ein vielfaches von +30%. Deine Aussage ist also immer noch grob falsch.
Diese hohe Transistordichte zeigt Navi22 nicht. Steigt dort nur um 25% bei 96 MB Infinity Cache auf einen viel kleineren Die.

theGucky schrieb:
Der Cache macht etwa ein Viertel des Chips aus, aber beinhaltet mehr als ein Drittel der Transistoren. Deshalb ist Cache ja teuer.
Quelle fĂŒr die Anzahl an Transistoren?

Dass der Cache kein Viertel ausmacht, sondern eher 1/8 sieht man ĂŒbrigens im Die Shot.
theGucky schrieb:
HÀtte RTX5000 auf einmal genausoviel Cache wie RTX3000, dann hÀtte RTX5000 eine geringere Transistordichte als RTX4000...
Das glaubst auch nur du. Rechne mal vor.
 
  • GefĂ€llt mir
Reaktionen: RogueSix
Hoffe das mal ne rtx 6000 Serie 4999 € kostet oder mehr, bis es mal klick macht . Aber wie man sagt, die meisten Menschen sind dumm und die HĂ€lfte davon noch dĂŒmmer.
PTS schrieb:
und was ist nun das problem? Die karten werden ja stÀrker dadurch und wenn du/ihr sie euch nicht leisten könnt, dann ist das doch euer pech. ich will mehr leistung!


Und zweimal lagst du falsch, nicht ich.
Wie kommst du zu diesen Schluss?

Wieso war die gtx 1080 ti so viel schneller und nicht viel teurer ?
 
  • GefĂ€llt mir
Reaktionen: LeckerRK
ZurĂŒck
Oben