News GeForce RTX 4090 und 4080: Wie geht die Rechnung von Ada Lovelace für Nvidia aus?

Max007 schrieb:
Bekomme leicht Brechreiz wenn ich das Statement der Lederjacke höre "Grafikkarten werden nie wieder günstiger sondern immer nur noch teurer".
Erst richtig zitieren oder Ohren reinigen, bitte. Dann gerne brechen. ;)

“The idea that a chip is going to go down in cost over time, unfortunately, is a story of the past,”

Nvidia ist hier also selbst abhängig von den Produktionspreisen.

“First of all, a 12-inch wafer is a lot more expensive today than what it was yesterday. And it’s not a little bit more expensive, it’s a ton more expensive,


Wenn die Chips teurer werden, werden es auch die Grafikkarten leider auch.
Ergänzung ()

Master_Chief_87 schrieb:
Offenbar sind hier einige zu oft mit Zocken beschäftigt und sehen nicht mehr, was in der Welt passiert bzw. welche Konsequenzen das alles hat.
Genau da hilft Zocken. Und manche haben vielleicht einfach das Hobbygeld alias disposable income und sparen darauf.
Wenn alles da draußen so doof ist, sind Spaß und Freude an den persönlichenj Dingen, Hobbies und Aktivitäten wichtiger denn je für die Seelengesundheit.

Ich freue mich darauf, an den ungemütlichen Wintertagen mit der 4090 Abluft meine Füße zu wärmen :D und meine Games ultramax zu zocken.

So wird es vielen gehen :)
 
  • Gefällt mir
Reaktionen: Schokolade, PHuV und xexex
@Laphonso glaubst du alles was in der Werbung (oder von CEOs) gesagt wird? Auch wenn der Chip von z.B. 50$ auf 150$ gestiegen wäre, sind 500$ UVP Aufschlag zu viel!

P.s. Auf der Veroackung meines Kartoffelstocks ist ein Teller abgebildet, der ist jedoch NICHT mit enthalten. 😃
 
Master_Chief_87 schrieb:
Völlig irre, wie viele Leute hier die Realität ausblenden.

Die Preise orientieren sich nun mal an der aktuellen Markt-Situation und die ist durch Krisen wie die Corona-Pandemie, Naturkatastrophen, (bevorstehender) Krieg und Resourcenknappheit so heftig unter die Räder gekommen wie schon sehr sehr lange nicht mehr.

Offenbar sind hier einige zu oft mit Zocken beschäftigt und sehen nicht mehr, was in der Welt passiert bzw. welche Konsequenzen das alles hat.
Der (protestantische) Verzicht auf den neuesten Grafikbeschleuniger schafft da hoffentlich zeitlichen Freiraum.

Derzeit sieht die Lage danach aus, dass die UVP der neuen Karten hierzulande sogar noch angehoben werden könnte.
Der Euro bewegt sich nämlich weiterhin abwärts. Knapp unter 90 USD Cent sind sehr wahrscheinlich.

Eine RTX4090 FE würde hier also auf 2200€ UVP klettern.
Aber auch das wäre noch ein Schnäppchen sobald China in Taiwan einmarschiert - denn dann reden wir nicht mehr von 4-stelligen Beträgen, die man für derlei "Spielzeug" auf den Tisch legen wird.
Ohhh schön, das es noch Motten gibt die ins Grüne Licht des verderbens flattern um irgendwann zu merken, dass es gar kein Grünes Licht gewesen ist sondern Grüne Lava.
 
  • Gefällt mir
Reaktionen: LamaMitHut
Hach, die Abstimmungsfragen mal wieder ...


War das Release der GeForce RTX 4000 überzeugend?
Sowohl interessant wie es auch klar ist, wir alle auf die Tests der Redaktionen warten.


Sind 1.099 Euro für den Einstieg in GeForce RTX 4000 zu viel?
Die Frage ist halt super cringy wenn man doch genau weiß, das die 4090 und 4080 vorgestellt wurden.
Und das dies nicht die Einstiegsmodelle sind. (der ganze rest aber auch völlig wurst ist, weil niemand einen neue top FHD Karte braucht)

Wie ist die Aufteilung in zwei GeForce RTX 4080 zu bewerten?
genauso wie es irrelvent ist, was die nutzer gerne für eine bezeichnung hätten, genauso ist es halbwegs sinnbefreit gleiche namen für unterschiedliche produkte zu verwenden.
insofern tut man gut daran das alles zu ignorieren und auf die leistung zu schauen.

Wäre DLSS 3 für dich ein Grund eine GeForce RTX 4000 zu kaufen?
machen wir uns nichts vor: DLSS ist nüchtern betrachtet, am ende aller überlegungen, ein gamechanger, aber nur, solange auch die andere leistung stimmt.

Planst du den Kauf einer GeForce RTX 4000
super cringe antwortmöglichkeiten, als ob sie JETZT jemand "ganz sicher" festlegen wird.
Knieschuss, diese Frage

Aber tendenziell, sieht es bei mir schon so aus. AMD müsste halt wirklich liefern.
und zwar in 4K, und deswegen (siehe vorherige frage) weiß ich nicht ob da 1%-5% leistunsgvorsprung noch DLSS3 toppen können. Da muss halt richtig was kommen, was auch über raster hinaus geht.


Welche GeForce RTX 4000 planst du zu kaufen?
und es wird immer cringer

Geht die Rechnung von Nvidia auf?
Welche Rechnnug ? das man eine neue Generation von GPU auf den Markt bringt?
Die RT+4K spielbar macht? Ich denke schon.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bulletchief
Syrato schrieb:
@Laphonso glaubst du alles was in der Werbung (oder von CEOs) gesagt wird? Auch wenn der Chip von z.B. 50$ auf 150$ gestiegen wäre, sind 500$ UVP Aufschlag zu viel!
Ob das zu viel ist, entscheidet der Markt. Wem das zu viel ist: Einfach nicht kaufen :) Problem gelöst.
 
  • Gefällt mir
Reaktionen: PHuV und freifacht
@Melu76 es gibt, gerade hier, viele die sich fast ohne zögern eine 4090 oder 7950XT kaufen werden, weil sie die Leistung wollen oder für 4k 144Hz+ "brauchen".
 
  • Gefällt mir
Reaktionen: Laphonso
Melu76 schrieb:
Planst du den Kauf einer GeForce RTX 4000
super cringe antwortmöglichkeiten, als ob sie JETZT jemand "ganz sicher" festlegen wird.
Knieschuss, diese Frage
Das ist ja auch einfach nur eine nicht validierte Momentaufnahme und soll ja nur mal Orientierung geben.

Spannend ist vor allem, dass das Abstimmungsbild sich NICHT hier entsprechend Stimmung im Forum wiederfindet.

Demnach (Stimmung im Forum) müsste man davon ausgehen, dass nur 5 % hier eine RTX40 kaufen.
Die Realität ist und wird wieder eine andere.
 
  • Gefällt mir
Reaktionen: Bright0001 und PHuV
Syrato schrieb:
@Melu76 es gibt, gerade hier, viele die sich fast ohne zögern eine 4090 oder 7950XT kaufen werden, weil sie die Leistung wollen oder für 4k 144Hz+ "brauchen".

ja, aber die frage ist auch wann.

jetzt kann man das alles eh nicht wissen. erst muss AMD die hosen runterlassen, und dann mal den Markt beobachten.
Die Tests der Redaktionen etc.

Das wird eine schöne Zeit für die Konsumenten.
 
Laphonso schrieb:
Ob das zu viel ist, entscheidet der Markt. Wem das zu viel ist: Einfach nicht kaufen :) Problem gelöst.
Naja es ist zu viel! Coca Cola durfte doch auch nicht einfach den Preis erhöhen, wurde gerichtlich untersagt!
Wenn du das natürlich gute solltest, willkommen im Kapitalismus. Es gibt immer mehrere Ansichten. Jedes private Unternehmen darf und sollte gewinn machen.
Nur man hat bei der französischen Revolution gesehen, was bei endloser Gier passiert.
 
  • Gefällt mir
Reaktionen: Fighter1993
bullet1087 schrieb:
Hab mich lange Zeit geweigert Raytrancing zu akzeptieren weils für mich einfach nur Software war...und meiner GTX 1080 genug Reserve zur Verfügung stand. Auf Raytrancing in Cyberpunk konnt ich pfeifen , war auch ohne für 100stunden interessant.GTA online lief super auf der Karte und auch alles weitere was noch in meinem Interessengebiet lag, machte keine Zicken. Zuletzt Anno 1800
Mitlerweile habe ich zwischen den Treiberversionen ( alte 352.XX ) und aktuellen Treibern 50X.XX aber schon 35% Leistungsverlust gehabt...und das in Gurken wie Terraria oder Farming Simulator 19.

Nachdem mir also die starken Leistungsverlust im Laufe der letzten 8 Wochen beim testen aufgefallen sind, ist Sie mir trotz Wasserkühlung letzte Woche den Pixeltot gestorben. 6 Jahre ein treuer Begleiter, 2 mal neue Wärmeleitpaste, Umbau auf wakü..
RIP Kleine...

Der Ersatz wird vermutlich ne 3080/3080TI/3090...
Mal sehen was der Markt bis Weihnachten macht und welche Ergebnisse die überteuerte RTX 4000er Serie erzählt...

Wunsch-denken: " bitte Herr im Pixelhimmel lass meine zukünftige RTX 30XX auch wieder mindestens 6 Jahre halten "
Jepp.
Genau so ging es mir auch mit meiner guten alten Kfa2 1070 Ti ExOc.

Ist zwar nicht abgeraucht und deswegen noch gut losgeworden ☺️.
War auch alles noch relativ gut spielbar in FHD und WQHD
und die hatte ich auch seit 2016 !

Hatte mir dann vor kurzem die GraKa aus der Signatur geholt, als Sie
unter meine selbstauferlegte Preisgrenze fiel.
Und es ist doch ein grandioser Unterschied :daumen:.

Aber Raytracing ist echt überbewertet.
Glaube auch, dass Spiele, die RT beinhalten,
absichtlich anders bzw. schlechter programmiert werden,
damit sie einfach schlechter aussehen
und damit RT als Feature genannt und genutzt wird bzw. werden muss.
Z.B. gestern Grid Legends in 4K gespielt und was da an Spiegelungen
auf dem Heck meines Mini Coopers zu sehen war... echt gut;
besser geht das mit RT auch nicht !
Halt gut programmiert :daumen:

Kannst nix falsch machen mit ner 38xx oder ähnlichem
 
Max007 schrieb:
Bekomme leicht Brechreiz wenn ich das Statement der Lederjacke höre "Grafikkarten werden nie wieder günstiger sondern immer nur noch teurer".
Ganz abgesehen davon, dass dies von dir offensichtlich falsch zitiert wurde, ist es eine Feststellung und keine Strategie. Die Produktionskosten steigen mit jedem Prozess weiter an, die Kunden wünschen sich scheinbar keine 5-10% Steigerungen wie bei den CPUs, sondern am liebsten >50% mit jeder Generation, da entspricht diese Aussage schlichtweg die Realität.

Die Zeiten als man mit jedem Shrink sparen konnte und plötzlich 100% mehr Transistoren zu gleichen Kosten, auf der gleichen Fläche platzieren konnte sind schon lange vorbei, zumal sowohl AMD als auch Nvidia keine eigenen Fabs haben und sowieso von den Preissteigerungen seitens TSMC abhängig sind.

Wie gut es TSMC geht, kann man wunderbar an den Zahlen sehen. Die guten Zahlen finanzieren AMD und Nvidia Käufer gleichermaßen.
1664187893086.png


TSMC frisst sich von Jahr zu Jahr mehr Speck an und mit 40% Gewinn, landet da vergleichsweise viel auf der hohen Kante, das kann nicht mal Apple in der Höhe vorweisen.
1664188097789.png


Sollen die GPUs Preise also jemals günstiger werden, bräuchte es eine starke Konkurrenz in der Chipfertigung, mit dieser ist aber in den kommenden Jahren nicht zu rechnen. TSMC hingegen spielt ihre Monopolstellung immer weiter aus und erhöht die Preise, trotz bereits sehr hohen Gewisse immer weiter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schokolade und Bright0001
Ich schätze nach dem Motto "Wasser predigen und Wein saufen." werden an Ende diejenigen die das Geld haben die schnellste Karte kaufen.
Mich würde es aber wundern, wenn die Verkäufe der 4080 nicht massiv zurückgehen werden, im Vergleich zur 3080.

Die "Das Beste oder nichts" Käufer sind schwer abzuschrecken.
Aber wer will diese Preise zahlen und dann nicht das Beste haben?

Insgesamt gibt wenig Gründe zu wechseln.
Und mit dem fallenden Preisen kann ich nur gut vorstellen, dass zum Beispiel Besitzer einer 1080 jetzt eine 3080 kaufen, statt das Doppelte für eine 4080 zu zahlen.
 
  • Gefällt mir
Reaktionen: DagdaMor
Laphonso schrieb:
Ergänzung ()


Genau da hilft Zocken. Und manche haben vielleicht einfach das Hobbygeld alias disposable income und sparen darauf.
Wenn alles da draußen so doof ist, sind Spaß und Freude an den persönlichenj Dingen, Hobbies und Aktivitäten wichtiger denn je für die Seelengesundheit.
Klar, Hobbies sind schon wichtig. Doch sollte es nicht soweit kommen, dass man aufgrund derer, die Realität aus den Augen verliert. Denn nicht wenige Hobbies, sind von genau dieser abhängig.

Ja, die Abwärme einer 450W+ Grafikkarte beim Spielen spart Heizkosten
LäuftBesser2000 schrieb:
Ohhh schön, das es noch Motten gibt die ins Grüne Licht des verderbens flattern um irgendwann zu merken, dass es gar kein Grünes Licht gewesen ist sondern Grüne Lava.
Aha, weil man die Realität im Auge behält "fliegt" man also eher ins Verderben.
Bemerkenswerte Interpretation.
 
  • Gefällt mir
Reaktionen: DagdaMor
Am Ende knallen sich alle wieder die WQHD-Raster-performance-Charts um die Ohren weil AMD nichts anderes kann.
Ergänzung ()

Phoenixxl schrieb:
Mich würde es aber wundern, wenn die Verkäufe der 4080 nicht massiv zurückgehen werden, im Vergleich zur 3080.

wen würde das nicht wundern. schließlich werden keine 100.000 miner jeweils 35 karten im doppelpack kaufen und hinterher noch den gebrauchtmarkt mit bots abfarmen.

das wird diesmal alles nicht passieren
 
  • Gefällt mir
Reaktionen: PHuV und Phoenixxl
Syrato schrieb:
Naja es ist zu viel! Coca Cola durfte doch auch nicht einfach den Preis erhöhen, wurde gerichtlich untersagt!

Falls du den Streit mit Edeka und dem Lieferstopp meinst: dieser Fall ist doch ganz anders gelagert, als Nvidias Preisgestaltung.
CC und Edeka haben Anfang des Jahres einen Vertrag zur Lieferung von Cola zu einem Preis X geschlossen. Dieser Vertrag ist aktuell gültig und kann nicht einseitig von CC zu ihren Gunsten geändert werden und muss entsprechend eingehalten werden.
Nichts anderes besagt, m.W.,das Gerichtsurteil.
In der nächsten Verhandlungsrunde steht es CC frei, den Preis für den nächsten so hoch anzusetzen, wie sie lustig sind.

Falls du also einen entsprechenden Vertrag mit NVIDIA abgeschlossen hast, Grakas unter einem Preis X geliefert zu bekommen, kannst Du diesen Anspruch sicherlich vor Gericht geltend machen.
Ansonsten sehe ich da eher schwarz, für einen gerichtlichen oder gar staatlichen Eingriff in Nvidias Preispolitik
:D ;)
 
  • Gefällt mir
Reaktionen: Bright0001, Postman und Syrato
syfsyn schrieb:
oder jensen sieht dlss3 als mittel für vergleiche vs amd rdna3.
Wenn das stimmt, was ich bisher gelesen habe, dass die meisten Benchmarks von NVIDIA mit DLSS3 gemacht wurden, dann ist Ada in weiten teilen einfach ein ziemlich langweiliges Release und die Neuheit heißt DLSS3, nicht Ada.
syfsyn schrieb:
Das würde den verdacht aufkommen das er als Ingenieur nicht versteht wie ada funktioniert.
Ich denke sogar, dass er Ada weit besser versteht als viele andere, denn zu Ada hat man sich weitgehend zurück gehalten mit Informationen und am Ende kam raus, dass es eigentlich eher ein Ampere 2.0 ist, weil die SM bis auf die neuen Tensore-Kerne quasi übernommen wurde. Es bleibt bei 64 + 64 Shadern
syfsyn schrieb:
Das RT durchaus deutlich schneller geworden ist steht sicher. Den der Ansatz dies endlich mit out of order zu ermöglichen macht Sinn.
Auch das entpupptsich aber ein wenig als "Marketinggerede", wenn man die neusten Informationen sieht und das wichtigste daran: Das OoO ist in dem Fall ein Software-Ansatz, der auch von Engineentwicklern umgesetzt werden muss.
syfsyn schrieb:
Die reine raster Leistung ist aber wie bisher rein linear und da scheint man den Ansatz von turing genommen zu haben
Nein, nicht Turing-Ansatz, es ist weiterhin Ampere. Der Turing-Ansatz wäre auch ein Rückschritt, weil man die beiden Datenpfade wieder auf einen Datentyp fest legt, was heute keinen Sinn mehr macht.

Und die Leistung beim klassischen Ansatz skaliert auch nicht wirklich rein linear, sondern die Kurven flachen in weiten Teilen sogar immer stärker ab, wenn man sich auf die Anzahl der Shader und Co bezieht, weil irgendwann das Bild nicht mehr genug Threads und Daten für die GPU zusammen bekommt um diese auszulasten.

.Sentinel. schrieb:
Ja- Dann hast Du aufgrund mangelnder Performance auf den Karten unter einer 3090 dann aber Lag und Ruckler.
Ob DLSS3.0 wirklich die neuen "Tensore-Kerne" benötigt oder mal wieder eine künstliche Beschränkung von NVIDIA ist, wird sich wohl durch findige Modder zeigen.

NVIDIA ist in der Regel eher zuzutrauen, dass sie künstliche Barrieren erschaffen, denn die meisten Tests mit DLSS3.0 und auch viel Entwicklungsarbeit finden aktuell teilweise auch auf Ampere statt und ja, ich habe in dem Fall meine Quellen für diese Aussage.
.Sentinel. schrieb:
Der Energieverbrauch sinkt durch gesteigerte Effizienz.
... immer diese Milchmädchenrechnung. Das ist das selbe Märchen wie aus dem Autosektor, dass die Motoren heute viel effizienter sind. Gleichzeitig opfert man jede Effizienz dafür, dass die Autos schwerer und größer geworden sind und immer mehr PS haben.

NVIDIA hat - und dass muss man ihnen zugestehen - wirklich alle Mittel in den letzten Jahren entwickelt um eigentlich den absoluten Bedarf an Energie sogar zusenken bei Grafikkarten. Man kann von DLSS1 halten was man will, DLSS 1 war aber der richtige Schritt in die richtige Richtung und auch DLSS2 und jetzt DLSS3 sind Schritte in die richtige Richtung, auch wenn DLSS3 jetzt wirklich anfängt Frames zu erfinden, aber all das könnte man effektiv dazu nutzen um den Energiehunger wirklich zu REDUZIEREN.

Wir rennen - auch vollkommen unabhängig der aktuellen Krise - mit weit geöffneten Augen gegen eine Wand und es findet leider immer noch kein Umdenken statt. NVIDIA hätte mit der 4090 locker die Energieaufnahme bei 350 W belassen können. Die 4080 12 GB ist mit 280 W auch in einem anständigen Bereich. NVIDIA hat sich aber erneut dazu entschieden 450 W.

Wenigsten eignet sich die 4090 damit wirklich als Heizung in einem kleinen Zimmer. So, Vitamin B bemühen, dann kommt meine sogar rechtzeitig an. Ich bin echt mal gespannt, wie die 4090 sich bei 350 W und 300 W verhält.
.Sentinel. schrieb:
Deswegen geht man auf Softwareseite und AI Seite immer weiter und bohrt eben genau NICHT einfach so alles auf, sondern verwaltet die bereits berechneten Pixel immer genauer und effizienter.
Falsch, man bohrt eben auch weiterhin alles weiter einfach so auf, auch wenn man auf der anderen Seite darum bemüht ist gleichzeitig die notwendige Rechenleistung zu "minimieren". Die RTX 4000er-Serie wäre mit 350 W oder gar nur 300 W, gerade mit dem, was man auf Softwareseite unternimmt, immer noch schneller als die 3000er und 2000er Serie und mit dem, was mit DLSS3 kommt, ist man sogar auf dem richtigen weg.
.Sentinel. schrieb:
Brutto- Margen sind uninteressant. Die Netto- Marge zählt und die liegt bei NVIDIA gesamt bei ca. 36% wobei der überwiegenden Teil aus dem Datacenter- Geschäft kommt.
Die Bruttomarge von NVIDIA liegt aktuell bei ca. 46 % und die Nettomarge bei 36 %, es gibt viele Firmen, die von 36 % Nettomarge träumen würden.

Leider ist der "stumpfe" und auch "dumme"Kapitalismus wieder zurück gekehrt, den man Anfang des 20. Jahrhunderts abgelegt hatte. Nichts gegen den Kapitalismus und Gewinne sowie ordentliche Rendite, nur heute nimmt es wieder überhand, dass Firmen, Manager und Investmentbänker denken, Nettomargen bei Firmen bei über 30 % liegen müssen und dass auf die Dauer für die Wirtschaft gesund ist. Gut, allgemein der Glaube an unendliches Wachstum ist idiotisch, aber solange wir ein infationäres Währungssystem haben, geht das noch halbwegs.
Max007 schrieb:
Bekomme leicht Brechreiz wenn ich das Statement der Lederjacke höre "Grafikkarten werden nie wieder günstiger sondern immer nur noch teurer".
Das große Problem an der Sache ist, dass NVIDIA, genauso wie AMD, Intel und Co von Investoren und Investmentbänker gewisse Erwartungen erfüllen müssen und da wird nun halt erwartet, dass mehr Umsatz und mehr Gewinn Quartal für vorjahres Quartal auf der Uhr stehen und NVIDIA macht jetzt genau das, was sie machen müssen: Sie ziehen die Preise in der Hoffnung an, dass am Ende sie eben wieder "wachsen".

Dazu kommt - für uns in Deutschland und Europa - aktuell der schwache Euro hinzu, der für unsere "Exporte" top ist, für die Importe aber die Hölle. Die 4090 ist vom US-Dollar-Preis sogar relativ "attraktiv" und nicht so übertrieben teuer, wie man durch die Euro-Preise denkt.

Auch noch wichtig ist, dass TSMC, Samsung und Co die Preise mit jeder Generation bei der Fertigung auch anziehen lässt und gerade TSMC ist echt eine Cashcow, was das angeht. Das Problem heute ist, dass auf jeder Ebene heute teilweise Rendite-Erwartungen von mindestens 25 - 30 % erwartet werden, da sonst eine Firma als ungesund gilt.

Wir erleben aktuell, dass Firmen auf jeden Fall ihre Nettomargen beibehalten wollen und dafür die Preise auch nach oben anpassen, während man auf der anderen Seite von Arbeitnehmern fordert, dass sie keine Gehaltserhöhungen und Co anstreben sollen, weil das die Preisspirale ja ankurbeln würde.

Wieder einmal werden die Gewinne auf Kosten der Arbeitnehmer und Allgemeinheit gesichert. Ein komplexes Thema, aber man kann nur hoffen, dass sich ab 2023 die Welt wieder normalisiert und nicht noch in Peking ein Früher ausrastet.
 
  • Gefällt mir
Reaktionen: Schokolade, Syrato, Master_Chief_87 und eine weitere Person
DevPandi schrieb:
Ein komplexes Thema, aber man kann nur hoffen, dass sich ab 2023 die Welt wieder normalisiert und nicht noch in Peking ein Früher ausrastet.
Meine Glaskugel sagt voraus, dass Peking die Situation ausnutzen wird.
Die warten noch schön ab, bis der Westen sanktionsmüde wird und sich keine andere „Sanktionsfront“ mehr leisten kann.
Bin mir sehr sicher, dass Taiwans Annektion nicht mehr allzu lange auf sich warten lässt.
Und damit es nicht zu OT wird: da werden wir uns Angesichts der Lieferengpässe im Hardwarebereich (und Wirtschaftskrise) aber noch dermaßen die Augen wundreiben...
 
@Melu76
Danke! Hat mir sehr viele Zeilen gespart...

Noch mehr wirre Glaskugel kann man in eine Umfrage nicht stecken.
Unterm Strich ist der Inhalt sowieso egal und die eigentliche Frage, die jedes Mal gestellt worden ist, ist "AMD oder nVidia?".
Und DIE Frage ist hier auf RedBase sowieso gleich beantwortet 😅.
 
Buddha1337 schrieb:
GSYNC Monitore gekauft habe
Dann Verkauf sie. Kommentare wie deine liest man immer mal wieder und es ist wirklich schade, dass es nvidia gelungen ist, mir diesem proprietärem Mist einen offenen Wettbewerb zu verhindern
 
Zurück
Oben