Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Andreas_AUT schrieb:
Kann mir einer auf die Sprünge helfen, warum das so ist ( ich kapiers echt nicht ).
Prozentwerte hängen von der Basis ab. 100 FPS sind 200% von 50FPS (100fps /50fps × 100%), aber 50fps sind 50% von 100fps (50/100 ×100%). Die selben 50fps Unterschied (zwischen 50 und 100) machen also einmal 100% und einmal 50% Unterschied, je nach dem, was man als Bezugswert nimmt.

Deshalb sollte man sehr vorsichtig sein, wenn man Prozentwerte voneinander abzieht oder addiert. Wenn dein Portfolio an der Börse an einem Tag 10% an Wert verliert und am nächsten Tag um 10% an Wert gewinnt hast du insgesamt trotzdem Verluste gemacht, weil die 10% Gewinn ja relativ zu einem niedrigeren Startwert waren als die 10% Verlust.

Chismon schrieb:
Mindestens ein quallitativ hochwertiges 650W Netzteil ist angeraten, mit 750W bis 850W Netzteil sollte man da auf der sicheren Seite sein.
Selbst Igor sagt aber, dass 650W für ein nicht übertaktetes System völlig ausreichen. Lastspitzen von mehr als 1ms hat er bei der FE "nur" um die 410W gemessen (und selbst bei unter einer ms wars noch unter 500W) - da hast dann immer noch 240W fürs restliche System (wohl gemerkt unter Spitzenlast). Die 750 bis 850W Empfehlung war, weil Partnerkarten evtl. mehr ziehen, oder Leute ihre Systeme übertakten.


Ich hab ja ehrlich gesagt den Eindruck, dass einige der Leute, die das Video hier zitieren (jetzt nicht speziell an dich gerichtet). Alles bis auf die letzten paar min ignorieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andreas_AUT, pipip und Mcr-King
ColinMacLaren schrieb:
Ich nutze weder Adobe noch Blender. Das Netzteil ist drei Monate alt. Bei der Kaufberatung vor drei Monaten wurde mir davon abgeraten, so ein überdimensioniertes NT zu kaufen 🙃
Vor drei Monaten hat auch noch keiner Absehen können was für Monster Nvidia und wohl auch AMD rausbringen.
Aber mit einem neuen Netzteil würde ich mir dann auch keine sorgen machen, zumindest für die nächsten Jahre, knapp ist es trotzdem.
 
  • Gefällt mir
Reaktionen: Mcr-King
MichiSauer schrieb:
Rechtlich schwierig, wenn die Person 10 Karten kauft, eine für sich behält und die anderen 9 verkauft, weil sie die mit dem wenigsten spulenfiepen wollte is das schon Grauzone.
Da existiert überhaupt keine Grauzone. Wenn du etwas kaufst und innerhalb von einem Jahr wieder verkaufst muss der Gewinn daraus versteuert werden. Allerdings gibts da ne Grenze von IIRC 500 Euro pro Jahr, is zu der man die Gewinne nicht melden muss.
 
  • Gefällt mir
Reaktionen: Mracpad, McTheRipper, McFritte und 2 andere
iceshield schrieb:
Bzw. Der Aufpreis für die 3090 ist dann doch eher: naja, ich sage es lieber nicht;)
Jeden Cent Wert, so man die Karte als billige high-performance Workstation-Karte sieht. Da wird es dann auch mehr als nur 10% mehr Performance sein, alleine schon weil man für diesen Anwendungsfall die 24GB auch ausnutzen kann. Im Forum iirc alleine für den Speicher ein Mehrpreis von 280€ um. So ganz ohne Marge noch.

Ist halt ne günstige Quadro Alternative, zumindest für die Leistung und die Menge an Speicher.
 
  • Gefällt mir
Reaktionen: iceshield und Mcr-King
Weil ich auf den ersten 7 und den letzten 2 Seiten es niemanden habe ansprechen sehen:
Wenn die 3080 "60 Prozent zur RTX 2080 Super FE, die 5 Prozent vor der RTX 2080 FE liegt.", dann liegt sie nicht 65% vor der 2080FE, sondern 68%.
 
SKu schrieb:
Die meisten Kunden kaufen dann, wenn sie etwas Neues benötigen, nicht weil ein grauhaariger Lederjackenmann irgendetwas für Hardcore-Enthusiasten aus seinem Backofen hervorholt.
Naja, die 3080 ist ja durchaus ne Karte für Enthusiasten. Da denke ich schon, dass bei den Kunden ne ganze Menge gehypte "haben will" Käufer darunter sind. Die "Vernunftkäufer" (ich kaufe dann, wenn ichs wirklich brauche) würde ich eher in anderen Preiskategorien ansiedeln, aber vielleicht hab ich da auch ein falsches Bild.
 
  • Gefällt mir
Reaktionen: Mcr-King
Syrato schrieb:
Digitec sagte dazu nur, dass er mind. zwei Monate Wartezeit einplanen soll. Sie können nur einen einstelligen Prozentsatz überhaupt beliefern. War das ein reiner Paperlaunch?
Nvidia hat wohl für die ganze Welt lediglich 15.000 Karten bereit gestellt, der Bedarf war wohl in den Millionen. Nur dieses Microcenter wurde von den offline Retailern in den USA beliefert und die meisten die eine Karte haben(rest von newegg und Co wurde von Bots binnen Sekunden leergekauft), haben sie von dort. Allerdings bekamen die Stores da teilweise nur 2(!) STÜCK!

Kein Wunder, da kommt endlich nach 2 Jahren eine Karte die in sachen Preisleistung einigermaßen brauchbar ist und dann liefern sie so gut wie nichts aus. Das ist doch Taktik, die wollen die völlig überteuerten Turing Karten noch zum Vollpreis verzögern, schaut euch mal auf Geizhals die Preise für die 2080Ti oder 2080Super an, da kommt einem das blanke Kotzen.

Hoffe dass AMD diese Harlunken Nvidia endlich zu fairen Preisen zwingt. Angedeutet wurde das ja mit der 3080 schon, Nvidia hat Muffensausen, sehr wahrscheinlich zurecht, Big Navi wird die 3080 knacken und weniger Strom brauchen.
 
  • Gefällt mir
Reaktionen: Celinna, Hexxxer76, McTheRipper und eine weitere Person
jk1895 schrieb:
Was ich ums Verrecken nicht verstehe ist, warum versucht AMD nicht Leute vom Kauf abzuhalten? Die sehen doch selber was für einen Hype Lederjäckchen fabriziert hat. Da kann ich doch nicht bis (Ende?) Oktober warten mit läppischen Informationen?! Warum hauen sie die Infos nicht einfach raus? Die haben doch so viele potenzielle Kunden zu verlieren. Wen interessiert da der Zeitpunkt der Veröffentlichung der Infos?!

Beispiel, ich selbst: Ich "bräuchte" "dringend" eine neue Grafikkarte. Will aber warten bis AMD zeigt was sie haben. Nur ist das Angebot von Nvidia gar nicht soooo schlecht, dass man dringend abwarten müsste und so könnte es passieren, dass ich mir doch Nvidia hole, obwohl ich absolut bereit wäre auch AMD zukaufen. Habe halt keine Lust auf Warten... (muss man ja jetzt eh wegen Lieferengpässen, aber halt theoretisch)
Aus diesem Grund glaube ich, dass AMD leider nichts in der Hinterhand hat. Sie würden schon irgendwas rausrücken, wenn sie etwas überzeugt wären von ihrem Produkt. Ich hoffe ich liege falsch, aber wäre schon ein Wunder
 
Miuwa schrieb:
d. Die "Vernunftkäufer" (ich kaufe dann, wenn ichs wirklich brauche) würde ich eher in anderen Preiskategorien ansiedeln,
Der 4k Übergang ist halt noch nicht so ganz durch. Ist wie damals mit den Voodoos, da waren dann 1200 Mark für ein paar mit SLI durchaus noch "vernünftig", weil halt die Auflösung so kräftig gesteigert werden konnte und die Performance und Bildqualität so auch super waren.

Heute hat man bei 4k halt noch wirklich viel Luft nach oben und es sieht halt auch, entsprechend großem Monitor vorausgesetzt, auch wirklich ein ganzes Stück besser aus. Ob der Vernunftkäufer mit genug Kleingeld jetzt vielleicht einfach nur QHD 144hz anpeilt sei mal dahin gestellt. Es wirkt auf jeden Fall nicht vollkommen unvernünftig.
 
  • Gefällt mir
Reaktionen: Mcr-King und Vitec
Nur um sicher zu gehen: Ich wollte jetzt nicht ausdrücken, dass alle, die nicht zu (meiner) Kategorie der "Vernunftkäufer" gehören unvernünftig sind. Mir ist halt grad kein besserer Begriff eingefallen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Mal abgesehen von dem Test hier, hat jemand eine 3080 bei sich zu Hause schon am laufen und die Leistungsaufnahme in seinem System mal durchgetestet (auch in extremeren Fällen)?
Mich würden einfach mal User-Angaben dazu interessieren, auch über die Temperaturentwicklungen.....Performance (außer evtl. mit Raytracing) ist mir jetzt dabei egal.
 
  • Gefällt mir
Reaktionen: Mcr-King
mannefix schrieb:
Bin nicht begeistert. 10 Gbyte sind zu wenig. Karte verbraucht 320 Watt, hust hust. Ne danke.
sehe ich genau so, ich auch nicht und crysis remastered brauch bzw nimmt sich auch schon 9gb :D
 
  • Gefällt mir
Reaktionen: Mcr-King
jk1895 schrieb:
Was ich ums Verrecken nicht verstehe ist, warum versucht AMD nicht Leute vom Kauf abzuhalten?
Weil AMD prinzipiell nicht alle catchen kann:

1.) Die G-Sync Gruppe kauft Nvidia GPUs
2.) Wer Raytracing und DLSS haben will in der Turing Weiterentwicklung, kauft die Nvidia
3.) Wer Prosumer ist, AI+ML nutzen kann und will und/oder YOLO disposable income spender ist und "muss maximun fps haben", kauft die 3090
4.) Die Gruppe, die davon ausgeht, dass AMD nach der 980Ti, 1080Ti und 2080Ti im Top End wieder nicht mitmischen kann, setzt auf die 3080

Diese "Leute" sind und bleiben bei Nvidia GPUS.

Aber:
Letztlich hält Nvidia einige ja selbst vom Kauf ab und bringt sie ins Wanken, vor allem nach den auch ernüchternden Nachrichten der 3080 als erklärtes "Flaggschiff" (!)
...

  • Marketinglüge bzgl. des Performance Abstands "up to 2x 2080" (lol)
  • katastrophale Verfügbarkeit,
  • AiB Straßenpreise und Scalper/Reseller "Preise" 100-250 Euro über der 699 Euro FE,
  • weniger oc Raum gegenüber Turing,
  • Raytracing Performance auch "nur" normal skaliert verbessert,
  • FE am Limit gefertigt mit overhyped Kühlsystem,
  • FE nur 10-20% vor der 2080Ti oc je nach Game+Res,
  • 3080 auch unter 4K zu oft nicht mit großartig Puffer von 60 avg fps und zu oft entfernt von dreistelligen fps in den anspruchsvollen Games etc.)

... und dem Ausblick, dass eine 3070 ("faster as 2080Ti") wohl doch nicht spürbar an der 2080Ti vorbeiziehen wird und dass die Leaks die 3090 im worst case nur 10% schneller als die 3080 darstellen.....

Die 3080 ist ein fps Monster, aber dann doch etwas unter dem Hype und der Erwartung geblieben

Alles das wird Unentschlosse sowieso dazu bringen, RDNA2 Infos abzuwarten.

Vor dem Release dachte ich, dass AMD maximal eine 3070 stellen kann.

Nach dem Release wird auf einmal die 2080Ti, die ALLE totgesagt haben, wieder ein relevanter Meilenstein in den Benchmarks, den man stellen muss.

Und nach dem Release halte ich es für möglich, dass AMD die 3080 direkt "attackieren" gehen, zumindest RTX off, mit 2 bis 6 mehr GB VRAM (trotzdem ich das immer noch für eine überzogene Marketingnummer halte) und ggf. knapp unter dem Preis der 3080.

Interessant wird, wie AMD das Raytracing löst und welche Features sie mitliefern (analog Nvidia mit Broadcast, Reflex, Voice etc).

Vor wenigen Wochen war ich mir sicher, dass Ampere den Marketshare unter Gamern auf bis zu 85% erhöht und AMD weiter den Anschluss verliert.
Die 3080 Launchwoche hat dieses, mein imaginäres, Szenario direkt umgedreht. Würde mich wundern, wenn Nvidia nicht Marktanteile verliert, sofern AMD mit RNDA auf Augenhöhe mit der 3070 und 3080 agiert.

Die 3080 Benchmarks lassen Nvidia nicht mehr - wie den Großteil des vergangenen Jahrzehnts - uneinholbar im High End erscheinen.
Und alle, die das erkennen, werden auf AMD warten und danach entscheiden.
 
  • Gefällt mir
Reaktionen: catch 22, PS828, Demon_666 und 3 andere
aldaric schrieb:
Na ich denke das sowohl AMD als auch nVidia ganz gut über die Konkurrenzprodukte bescheid wissen. nVidia kann sich ja schon ausmalen, anhand der Konsolen, was evtl. mit RDNA2 möglich ist. Ich denke da lassen sich von deren Experen ganz gute Prognosen ableiten.

Zu einem großen Teil magst du recht haben, gerade was die Möglichkeiten was den 7nm Prozess betrifft und wie gut dieser läuft: Yield Rate, max. Taktraten, Packdichte etc. werden sie wohl schon sehr gut informiert sein.
Weiter wissen sie wohl genau so gut Bescheid wie AMD selbst ob z.B. HBM2 eine Option darstellen könnte, oder ob es auf GDDR6 hinaus läuft.
Aber bei Details bezüglich z.B.: des Speicher-Interface ob es nun 384Bit, 512Bit oder laut aktuellem Gerücht 256Bit + 128MB Infinity Cache könnte ich mir vorstellen das sie ebenfalls im dunklen tappen.

Theoretisch sind alle 4 Varianten inklusive HBM2 möglich selbst 512Bit siehe (XBOX 320Bit) sehr niedrige Leistungsaufnahme.

Auch HBM2 ist mitlerweile aus den Kinderschuhen entwachsen und dürfte sich mitlerweile auch was den Preis anbelangt nicht mehr auf dem selben Level bewegen wie es noch z.B bei der 7 der Fall war.
Mit dem Vorteil der Flächenersparnis und des deutlich geringeren Verbrauchs.

384Bit ebenfalls möglich allerdings beißt sich dies mit den Kolportierten 16GB. (Wohl eher wenn überhaupt kommt es bei der 6800(XT) zum Einsatz)

Dann das letzte und aktuellste Gerücht, was ich zwar kaum glauben kann, aber sich anscheinend einige Leute bereits ziemlich sicher sind das es so kommen wird. Die 256Bit + 128 MB Cache.

Das wäre wirklich erstaunlich wenig für eine voraussichtlich 80CU's (5120) beinhaltende GPU.

Auch was die Die Größe anbelangt gibt es für Big Navi bis jetzt wenn ich richtig auf dem Laufenden bin 2 verschiedene Varianten:

Eine kostenoptimierte mit 428 mm2 und eine mit 505mm2.
Beide Varianten hätten ihre Vorteile:
Gemäss XBOX dessen GPU ca. 300mm2 misst (nur GPU Anteil am 360mm2 SoC) 300/56x80 = 428mm2, Würde ich die 1. Variante sicherlich als realistisch und potenziell machbar einzustufen.

80CU die anhand der Linux Treibereinträge bereits mehr oder weniger als gesetzt zu betrachten sind (egal ob nun Variante 1 oder 2 zur Anwendung kommen wird)

Variante 2 mit 505mm2 würde im Gegensatz zum RDNA2 Derivat in der XBOX wohl grössere Änderungen vermuten lassen. Tensor cores für deep learning etc.?
Mehr Cache? Eventuell die spekulierten 128MB Infinity cache die eine sehr große Fläche beanspruchen dürften.

Als kleines Beispiel (Pi x Daumen nicht nur mit einer Prise salz zu betrachten sondern da muss man sich grad eine ganze Linie hineinziehen:p)
Also:
Bei Zen 2 z.B. Size 74mm2 davon machen die 32MB L3 Cache ca. 34mm2 aus
128mm2 x 34mm2 / 32mm2=136mm2 - Platzersparnis da nur 256Bit (ca. 40mm2) anstatt 384 (ca.60mm2?) oder gar 512Bit (ca.80mm2?)
XBOX 50mm2 --> 320Bit
300-50=250 bzw. nur 290mm2 wenn nur 256Bit SI vorhanden.
290-40=250 (ohne SI für Berechnung)

290-40 =250/56x80=357mm2 (ohne SI) + 136mm2 =493mm2 + 40mm2 = 533mm2 (mit SI)

Es ging mir bei dieser Pi x Daumen Berechnung nur darum aufzuzeigen das auch das letzte Gerücht generell machbar erscheint.

Klar sind die Werte die ich z.B.: für die Größe eines 256 /512 Bit SI verwendet habe (40/80mm2)
nur geschätzt und können ebenso gut auch nur 30/60 oder 50/100mm2 ausmachen, aber in etwa sollte das schon so hinkommen.

Die Größe des GPU Anteils am XBOX Die mit 300mm2 sollte valide sein, kann aber natürlich auch noch einige mm2 variieren z.B. nur 280mm2.
Auch die 34mm2 für den L3 Cache des Zen2 scheinen relativ valide zu sein.

Auch ist klar das die Density für den L3 nicht 1:1 übertragbar sein muss, aber bei gleichem Prozess oder
leicht modifiziert ist es trotzdem gut möglich das dies in etwa übertragbar sein könnte.
Aber bei diesem Punkt bin ich mir nicht wirklich sicher und dies stellt zu gleich auch den größten Unsicherheitsfaktor dar.

Aber falls die Density größer ist als bei Zen2 würde man eh noch weniger Fläche benötigen bzw. es garantiert machbar 128MB in 505mm2 unterzubringen.

Also für mich liegt auch das letzte, aktuelle Gerücht im Bereich des möglichen. (Allerdings mit einem gewissen Unsicherheitsfaktor)

Weiter sind NVIDIA zwar die Effizienzzuwächse von Renoir und vor allem derjenige des XBOX SoC. sicher nicht entgangen, aber da schwirren einfach zu viele Variablen, die prinzipiell möglich erscheine im Raum herum, so das ich mir nicht wirklich vorstellen kann das NVIDIA wirklich im Detail weiß was AMD abliefern wird.

Klar man muss kein Genie sein um vorauszusagen:
Das Big Navi wohl mindestens die Zweifache Leistung von NAVI10 in Form der 5700XT abliefern wird und man sich darauf auch einstellen sollte.

Aber was wäre wenn z.B.: Ein best case szenario z.B eine IPC Steigerung von 25% analog RDNA1 vs. GCN eintreffen würde wäre da NVIDIA wirklich darauf vorbereitet?

Analog folgendem Gerücht (Oder wurde das sogar mehr oder weniger durch Microsoft bestätigt?)

Link
"According to Microsoft during the lecture, we’re looking at RDNA 2 featuring about 25 percent performance per clock increase from the previous generation (RDNA 1), which is quite frankly very impressive and a testament to the engineering efforts over at the Radeon Technology Group."

2 x 5700XT + 25% IPC = x 2.5 bzw. + 67% relativ zur 2080ti FE bzw. da Skalierung nicht linear >50%

Es gab da letztens auch einen Benchmark (Ashes of the Singularity) von einer unbekannten AMD Karte
die sich auf dem selben Level wie eine 2080ti FE (ca. 1.72 -1. 75GHz bei den meisten Games) bewegte.

Das einte Gerücht (Variante 2) sprach von drei Varianten (mm2):
240 (ca. 36/40CU) 6700 / 6700XT
340 (52/56CU?) 6800 / 6800XT scheint plausibel
505 (72/80CU) 6900/6900XT

Bei dem Benchmark müsste es sich eigentlich um die 6800
gehandelt haben da die 6800XT sicher deutlich stärker als eine 2080ti FE wäre (IPC + Takt!)
also 6800 = 2080tiFE / 52 x 80 = +54% was wiederum meine >50% von zuvor betätigen würde.

Daher meine Prognose: BIG Navi leicht schneller bzw. etwa gleich schnell wie eine
mit einem Power Target von 440W versehene 3090 OC.

Das bei ca. 1000$ (999$) da kostengünstiger in der Herstellung + nur 16GB normalen GDDR6 anstatt 24GB teuren GDDR6X und um Marktanteile zurück zu erlangen müssen die Karten auch leicht günstiger über den Tisch gehen das ist logisch.
Wermutstropfen nur 16 anstatt 24GB
Dafür nur ca. 300W anstatt 440W Verbrauch bzw. das alte Netzteil kann noch verwendet werden.

Dann kommen noch die Wassergekühlten OC Varianten bis 360W? Die ihrerseits nochmals bis zu 10% oben drauf legen um die unangefochtene Spitze zu erklimmen. (Nur eine Annahme aber plausibel das es so kommen wird)

Das Gesamtpaket von Big Navi wird extrem attraktiv sein und dem ist sich NVIDIA sicherlich auch bewusst.
Allerdings glaube ich kaum das sie vollumfänglich über den eingeschlagenen Weg von AMD bzgl. RDNA2
informiert sind.

Die 3090 wird mit ihrem angesetzten Preis von 1499€ - custom Modelle bis 1800€?
keine Chance gegen eine leicht schnellere, effizientere, deutlich günstigere und auch bei
beim Thema RT wohl in etwa gleich performante Karte haben.

Die 3080 wiederum muss sich wohl mit einer um die 700 - 800$ teuren 6900 auseinander setzen die
wiederum deutlich schneller analog 3090 vs. 6900XT mit ebenfalls 16GB ausgestattet ist.

Die 3080 mit 20GB wird nicht nur deutlich teurer sein, sondern auch in den max. OC Varianten mit
420W vs 260W??? (6900)? deutlich mehr schlucken.

Es scheint zwar so das NVIDIA mit würgen und brechen leistungsmäßig den Anschluss halten könnte, aber ich denke das hat mehr mit Glück als mit Kalkül zu tun, NVIDIA ist einfach am Anschlag da geht nichts mehr.
Bei dieser Generation werden sie ganz klar den Kürzeren ziehen.
Ob sie sich aus diesem Loch in dem sie sich gerade befinden wieder befreien können?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Prauscht, Qyxes und Mcr-King
Rusty [GER] schrieb:
Next Level Spulenfiepen mit einer Asus TUF:https://imgur.com/a/gHsIRqO

Ich höre da jetzt nichts wirklich ungewöhnliches oder schlimmes.
Zumal die settings nicht bekannt sind.

Chismon schrieb:
Im folgenden Video von Digital Foundry (ab 18:38) werden Crysis 3, Ryse, und Assassins Creed Unity als problematisch genannt:

Ich höre nur raus, das CryEngine Spiele einen fps cap bei 65 haben.
Und das ist mMn ein Treiber bug, Probleme gab es früher ja auch schon.
 
akuji13 schrieb:
Ich höre da jetzt nichts wirklich ungewöhnliches oder schlimmes.
Was?
Dieses fiepen ist ja wohl nicht zu überhören und mega extrem.
Klingt für mich nach nem RMA Fall
 
  • Gefällt mir
Reaktionen: Wintermute und Mcr-King
Taxxor schrieb:
Dieses fiepen ist ja wohl nicht zu überhören und mega extrem.
Ich dachte aus erst, da hör i nix! Bis ich herausgefunden habe, dass das Video auf stumm gestellt ist. 😄

Aber wegen dem Fiepen, vielleicht hat der ja Minecraft laufen lassen mit 2000 FPS, da darf die schon mal Geräusche von sich geben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thuNDa, Mcr-King, McTheRipper und eine weitere Person
Kenjiii schrieb:
Und wieder falsch. Ich rede von der besten erhältlichen Grafikkarte, also bezieht sich der Vergleich auf die 2080 Ti.
Die kostete 1200€ und du bekommst 100 Fps, jetzt zahlst du 700€ und bekommst 130 fps.
---->1200/100 vs 700/130 = 12€ / 5,38€ = 2,23..........damn, man bekommt sogar 2,23x so viel Fps. :D
Wie kann das nicht der ULTIMATIVE HYPE SEIN? :rolleyes: :) :) :)

Du redest von... Das was du machst nennt man Rosinen picken!
Mit der 2080Ti kannst du meinetwegen die 3090er vergleichen.
2080 mit 3080...
Aber bitte, mach dir deine Welt, wie sie dir gefällt.
 
Taxxor schrieb:
Was?
Dieses fiepen ist ja wohl nicht zu überhören und mega extrem.
Klingt für mich nach nem RMA Fall
Für mich klingt es wie eine sehr, sehr schlechte Aufnahme, bei der alles mögliche zu hören ist :D
 
  • Gefällt mir
Reaktionen: akuji13
Zurück
Oben