News Nvidia vs. AMD: Wie steht ihr zum Start von GeForce RTX 4000 und Radeon RX 7000?

Der Kram ist mir einfach viel zu teuer geworden.
Beide haben imho am Markt vorbei entwickelt, ich kenne außerhalb dieses Forums auch keine Menschen, die mal vierstelig für ne Grafikkarte hinlegen.
Klar kann man immer alles relativieren (unser Gaul hat über die Jahre betrachtet Region 600-800 Euro im Monat gekostet, dagegen sind 2000 Euro alle 2 Jahren ein Schnapper), aber ich möchte schlichtweg nicht die Kurse bezahlen, die aktuell für Grafikkarten aufgerufen werden, auch wenn ich es ohne mich einschränken zu müssen könnte.

Ich denke es ist einfach nicht angemessen was sich Teile der IT genehmigen, das betrifft ja nicht nur Grafikkarten.
TSMC macht dieses Jahr vermutlich Größenordnung 40 Mrd. Gewinn, NVidia dürfte in der Größenordnung 10 Mrd. liegen, selbst AMD in inzwischen im Plus.
Von Apples knapp 100 Mrd. Gewinn brauchen wir gar nicht mehr reden.
Das ist alles Kohle, die wir denen in den Rachen werfen und dann gibts hier auch noch so Verrückte, die sich das schönrechnen oder tatsächlich glauben, dass die Dinger so viel in der Herstellung kosten.

Mir ist natürlich bewusst, dass wir vermutlich nicht mehr solch paradiesischen Zustände erleben werden wie zu Zeiten der HD3850, aber ich sehe es nicht ein, dass ich für ne Grafikkarte mit der Performance einer 2 Jahre alten XBox alleine so viel zahlen muss wie für die ganze Konsole.

Und mich stört es auch, dass ich aktuelle Technologie immer erst ne Ewigkeit lang nur bei High-End bekomme.
Da ist noch gar nicht so lange her (RTX20x0 und GTX1660 Ti), dass man bei ner neuen Generation in halbwegs kurzen Abständen nach High-End-Launch Mainstream-Varianten hinterher geschoben hat. Die waren dann langsamer, aber nicht ineffizienter als High-End.
Heute soll ich 1000+ Euro für aktuelle Technik hinlegen oder 3 Jahre altes Zeug mit dem gleichen Verbrauch für 700 Euro kaufen.
Werde ich nicht tun, wenn AMD oder NVidia mein Geld sehen wollen, dann bitte ne RTX 40x0 oder RX7x00 mit weniger Leistung, gleichem oder besserem P/L-Verhältnis und gleicher oder besserer Energieeffizienz.
 
  • Gefällt mir
Reaktionen: Innocience, Onkel Föhn, Oppagolf und 9 andere
metoer schrieb:
Bei den Konsolen schafft man es seltsamerweise trotz neueren Fertigungsverfahren und Inflation einen halbwegs konstanten Preis zu fahren, kann in meinen Augen also nur Abzocke sein was da gerade passiert.

Die Hardware der Konsolen unterliegt höchstwahrscheinlich einer Quersubventionierung. Die Software und die Abomodelle für Pässe spielen das Geld ein. Die Verluste bei der Hardware lassen sich wohlmöglich über andere Kostenstellen wieder ausgleichen. Daher hinkt der Vergleich, denn ein Sony oder MS sind nicht äquivalent zu einem Nvidia oder AMD. Nimm Sony sämtliche Sparten und am Ende bleibt nur noch die Konsolensparte übrig. Dann wäre es interessant wieivel eine PS kosten würde. Wahrscheinlich weitaus mehr als es jetzt der Fall ist.
 
Chismon schrieb:
wenn das stimmen sollte was im letzten MLID Video angedeutet wurde
Einfach mal einen Blick auf die Trefferquote dieses Märchenerzählers werfen.

Chismon schrieb:
die Zusatzsteuer faellig werden sollte und auch in Europa
Es geht im Zölle, die bei der Einfuhr in die Vereinigten Staaten von Amerika von in China (Volksrepublik China) hergestellten elektronischen Produkten zusätzlich zu entrichten sind.

Mit anderen Worten: Nicht unser Bier, die können weiter ihren Handelsstreit ausleben und nichts davon betrifft uns in Europa.
 
@SKu
Klar werden die teilweise subventioniert, aber das passt nicht in den Dimensionen, die wir hier aktuell haben.
Es war mal von 450 Dollar für ne PS5 und 500 für die XSX die Rede, da sind dann aber auch Gehäuse, Netzteil, Controller, Board und SSD drin, mal davon ab, dass da die CPU mit im Chip steckt.

Aber AMD kann gerne mal ne Konsolen-like APU für den PC-Markt für 300 Euro rausbringen, die auf XSX-Niveau liegt. ;)
 
incurable schrieb:
Mit anderen Worten: Nicht unser Bier, die können weiter ihren Handelsstreit ausleben und nichts davon betrifft uns in Europa.
Abwarten, gut moeglich, dass sich das evt. auch auf die Preise in Europa auswirken (oder gar ausweiten) wird, denn ganz ausschliessen kann man das nicht.

Der gelegentliche Maerchenerzahler liegt in der Regel bestimmt oefter richtig als Du mit Deinen Quellen oder Mutmassungen ;).
 
Chismon schrieb:
Abwarten, gut moeglich, dass sich das evt. auch auf die Preise in Europa auswirken (oder gar ausweiten) wird, denn ganz ausschliessen kann man das nicht.
Nein. Die Europäische Union ist u.a. auch eine Zollunion. Wir legen unsere eigenen Zölle fest, und was im Handel zwischen den Vereinigten Staaten von Amerika und der Volkrepublik China vor sich geht ist dafür nicht von Relevanz.

Chismon schrieb:
Der gelegentliche Maerchenerzahler liegt in der Regel bestimmt oefter richtig als Du mit Deinen Quellen oder Mutmassungen ;).
Leg mal los. Mein Archiv liegt offen. Finde Vorhersagen. Finde Beiträge, in denen ich von "Quellen" oder ähnlichem fabuliere. Und dann vergleich solche mit der Realität.
 
Umfragen, Umfragen-Updates, jaja.

Die Frage "Welchen der beiden Hersteller siehst du derzeit bei Next-Gen-Grafikkarten besser aufgestellt?" finde ich blöd. Zu wenige Antwortmöglichkeiten.

AMD wäre mir z.B. z.Z. wesentlich lieber, weil sie deutlich rundere Linux-Integration anbieten. Aber dann verkacken sie es bei der Stromaufnahme. Und RDNA2-Grakas fallen preislich noch immer nicht auf ein attraktives Niveau. Alles irgendwie "meh".

Sorry, dann sage ich eben: LMAA. Dann quälle ich mich halt noch einige Monate mit der aktuellen Lösung, aber ich werde euch für den Sch* nicht mehrere Hundert € extra in den Rachen werfen. Als hättet ihr euch am Crypto-Mist nicht schon genut gemästet. SCHÄMT EUCH!
 
  • Gefällt mir
Reaktionen: nobbivm und Nargii
Maine schrieb:
Ich hatte basierend auf Igors Daten mal ein bisschen zum P/L-Verhältnis gerechnet, so sieht es für WQHD gegenwärtig aus:
Leider ist das nicht so ganz repräsentativ - der 7950X ist schon mit ner alten 6950er AMD GPU in WQHD laut Irgor 4% hinter nem 13900k - in UHD ist die 4090 teils 80%+! vor dieser 6950, man bekommt hier also eher ein verfälschtes Bild, weil obenraus die Leistung nicht ausgespielt wird. Um so langsamer die GPU, desto weniger fällt das ins Gewicht.
Sieht man auch schön am Abstand - 35% pro 4090 ggü. der 4080 in UHD, und nur 20% in WQHD. Das ist ne Menge Holz - zudem man ja GPUs nicht für die Vergangenheit kauft, sondern mit steigenden Anforderungen und neueren Games eher mehr als weniger Abstand raus kommt.

Was ich damit sagen will - man belügt sich heute selbst, wenn man P/L oder P/W mit zu viel Eingriff der CPU mit Titeln von gestern ermittelt um nen GPU Kauf für die Zukunft zu bewerten. Man sollte lieber UHD aufwärts vergleichen. Denn die Anforderungen werden steigen über die Monate und Games.
ThePlayer schrieb:
Schade ist nur wenn zu viele Leute blindlings egal zu wlchem Preis kaufen. Die 100k 4090 Käufer sind ja schon schlimm genug.
Wieso schade und wieso schlimm genug?
Gerade für dich als Vertriebler müsste das doch mehr als verständlich sein?

Ich sag mal so, es tut nur einmal kurz "weh", sich einzugestehen, das es auch einen Marktbereich gibt, der über den eigenen Mitteln und Möglichkeiten liegt - das ist für Millionen, wenn nicht Milliarden Menschen schlicht einfach die Realität. Warum nimmt man sich aber immer als gut situierter das Recht raus über die paar wenigen 10k Leute über einem zu schimpfen wenn man selbst für Millionen Andere weit über deren Standard agiert?

Ergibt für mich keinen Sinn außer dass es eine unnötige Neiddebatte vom Zaun bricht... Ich für meinen Teil gönn Jedem, der sich so ne 2000€ Karte in den PC steckt, auch wenn ich es selbst auch könnte, ist es mir es einfach (noch) nicht wert, für die paar Stunden, wo ich den Unterschied merke. Nur warum sollte ich das irgendwem Absprechen?
 
  • Gefällt mir
Reaktionen: incurable
ActionNews schrieb:
Wieso auf Raytracing verzichten? Ist jetzt 3090/Ti Raytracing Performance plötzlich unbrauchbar? Warum haben sich Leute dann 3090er gekauft?
So ist das doch nicht, man kauft doch jedes mal eigentlich als Enthusiast eine neue, wohl wissentlich, dass die alte Gen langsamer oder viel langsamer ist.
Nur früher war dieser Gap viel kleiner was den Preis anbetraf.
Damals mit RTX2000 hat der Scheiß angefangen (eigentlich hat NV schon mit den Titans viel früher ausgelotet was möglich wäre) und dann kam COVID und Mining und dann kam der Schmarren den wir gerade erleben...
Die Karten sind nicht unbrauchbar, sie sind zu teuer.
Die Karten sind alle super, wenn die 4090 so teuer wäre wie die 4080 und der Rest darunter aufwärts von 750 Euro wäre die Welt noch einigermaßen in Ordnung, 1400-1600 Euro würde ich für die 4090 bei Bedarf tatsächlich als gerechtfertigt ansehen und da Konkurrenzlos auf weiter Flur (Holy shit der Benchmarkbalken ist so weit rechts... da brauchts eigentlich schon direkt die nächste Gen für Vergleiche...) aber doch keine 2K? Dann hat man nächste Gen mit dem Spruch "Moores Law is Dead" direkt die Karte für 3000 Euro, weil NV wieder nur mehr in die Produktion der Datacenter/KI/AI Varianten steckt..... nein Danke, das müssen wir nicht weiter mitzahlen.
Ich will das tatsächlich auch nicht mehr und ich bin eigentlich die "Nische" die >100FPS in 4K Maxed Out (wenn möglich auch mit RT) möchte, aber am Ende sind alle Karten dafür zu langsam, selber ein Brecher wie die 4090.
Für mich ist auch tatsächlich nur die 4090 die einzig gerechtfertigte Grafikkarte dieser Gen... das Teil ist unbeschreiblich.... ich nenn die einfach mal on Par mit der Legende 8800GTX....

Also zusammengefasst, nein die alte Gen ist nicht unbrauchbar, sie ist für viele hier nicht mehr "zeitgemäß".
Ich sehe das schon auch so, für die meisten anderen sind die Karten der RX6000 und RTX3000 weiterhin absolut zu empfehlen und solange AMD/NV die Karten nicht EOL schicken wird sich auch mit Midrange Karten hier nichts bessern was die Preise angehen.... die neuen Karten werden zu Preisen im Regal verrotten.

Gerade die Leute, die sich diese Karten nicht leisten können, trotz Invest ins Hobby....
Soll PC Gaming jetzt elitär werden?

Ich finde sogar diese Diskussion müssen wir nicht weiter aufgreifen, eigentlich führt fast jeder Thread, auch mein Kommentar da drauf hinaus.
Ich mag die CB Community und auch die Artikel sehr, aber man polarisiert hier durch solche scheiß Abstimmungen und Umfragen in letzter Zeit richtig hart.

Andererseits ist es auch notwendig hier zu sensibilisieren, denn man will ja ein gutes Gefühl und eine gute Stimmung untereinander im Forum.
Ich erwarte mir deshalb also von vielen mal ein wenig Zurückhaltung in vielen Kommentaren was das Kaufverhalten anderer Leute hier angeht, genauso erwarte ich von den Käufern der aktuellen Gen etwas Empathie und keine "Euro Armut kotzt mich an" Ansicht.....
Man sollte sich gegenseitig verstehen.

Ich bin ehrlich, ich bin der 4090 und vor allem alles darunter sehr kritisch gegen gestellt.
Die Produkte sind klasse, aber VIEL zu teuer. Ich unterstelle NV eine maximale Schröpfung der Marge und ein gieriges Ausnutzen der Stellung. Man ist in den 2000ern durch diese Käuferschicht groß geworden und dadurch konnte man sich erst im Datacenter Bereich festsetzen und investieren.
Ich erwarte mir keine 600 Euro oder Verbräuche von nur 200W fürs Topmodell, aber ich erwarte mir ein ausgewogenes Produkt.

Zu AMD gilt hier das selbe, wobei ich zugeben muss, seit der HD4870 war die 6900XT meine erste Karte.
Ich bin bis auf das Spulenfiepen mehr oder minder zufrieden damit, wenn man paar HDMI Probleme mal außen vor lässt (hatte ich mit der 3090 davor auch).

Somit, wie stehe ich zu den neuen Karten?
Alle 4 Karten derzeit sind super Klasse, Leistung satt, Verbrauch Moderat, meist Kühl und leise.
Aber eben viel zu teuer für die allermeisten um einfach gerne zugreifen zu können.

Ich würde mir gerne eine kaufen, sofern der Preis sinkt (ca. 20% in jedem Lager für das jeweilige Modell).
 
  • Gefällt mir
Reaktionen: Oppagolf und nobbivm
Jesses, bin ich froh, noch vor 3 Wochen eine Sapphire 6800 Nitro+ für 569,- erstanden zu haben. Aber auch nur froh, weil die 5700XT noch für 230,- verkauft werden konnte. Selbst diese mit viel Glück (war absolut nicht meine Wunschkarte als Upgrade zur GTX 970) noch im November 2020 neu für 379,- bekommen. Und das war schon die Schmerzgrenze, womit ich in dieser Diskussion eigentlich schon fehl am Platze bin. Vielleicht bin ich auch nur einer , der nicht abgeholt wurde, und solche 4000er und 7000er mit diesen Preisen werden nur geleast in den Rechner eingebaut. Anders kann ich mir das nicht erklären...
 
  • Gefällt mir
Reaktionen: Onkel Föhn
@Vitche
Ich finde die Fragestellung ist uneindeutig, da beides zutrifft.

Welchen der beiden Hersteller siehst du derzeit bei Next-Gen-Grafikkarten besser aufgestellt?

Diesmal hat Nvidia mit GeForce RTX 4000 bisher die attraktiveren Grafikkarten herausgebracht und auch in 2023 die besseren Aussichten.

Bei dieser Generation hat AMD mit Radeon RX 7000 die besseren Angebote vorgestellt und wird auch im kommenden Jahr attraktiver sein.

Die erste Antwort zielt auf die Attraktivität, die zweite auf die Angebotsqualität einer Karte.

Bei einer entweder-oder Frage meines erachtens nicht zielführend.
 
  • Gefällt mir
Reaktionen: incurable
tagedeszorns schrieb:
4000er und 7000er mit diesen Preisen werden nur geleast in den Rechner eingebaut. Anders kann ich mir das nicht erklären...
So unrecht wirst du damit nicht haben, selbst bei Gehältern von >60K im Jahr wirds mit Wohnung/Rücklagen/anderen Hobbys/Family äußerst eng 2,5K einfach so bar Kralle auf den Tisch zu legen.
Ich gehe davon aus, dass viele die eine große Klappe haben entweder so viel mehr Geld verdienen, dass einem im Leben eh alles easy going erscheint aus finanzieller Sicht oder man Paypal/Klarna Ratenzahlung als Default in sein Hirn gebrannt hat....
Hoffe ich trete niemandem damit zu nahe, es sei jedem vergönnt und wenn man 0% auf 24 Monate jedes Mal macht und die Karte wieder verkauft ist das auch alles i.O, lieber 24 Monate ne Rate und keine Zinsen drauf als direkt auf Kralle... aber viele haben sich dadurch schon verschuldet...
 
Unti schrieb:
So unrecht wirst du damit nicht haben, selbst bei Gehältern von >60K im Jahr wirds mit Wohnung/Rücklagen/anderen Hobbys/Family äußerst eng 2,5K einfach so bar Kralle auf den Tisch zu legen.
Ich gehe davon aus, dass viele die eine große Klappe haben entweder so viel mehr Geld verdienen, dass einem im Leben eh alles easy going erscheint aus finanzieller Sicht oder man Paypal/Klarna Ratenzahlung als Default in sein Hirn gebrannt hat....
Hoffe ich trete niemandem damit zu nahe, es sei jedem vergönnt und wenn man 0% auf 24 Monate jedes Mal macht und die Karte wieder verkauft ist das auch alles i.O, lieber 24 Monate ne Rate und keine Zinsen drauf als direkt auf Kralle... aber viele haben sich dadurch schon verschuldet...
 
  • Gefällt mir
Reaktionen: Unti
@Unti
Die Frage ist ja wie oft die überhaupt verkauft werden, das ist ja kein Massenprodukt wie z.B. ein iphone was (abseits der Blase hier) als Statussymbol taugt und entsprechend auch von zahlungsunfähigen Käuferschichten in Massen gekauft wird.
Wenns in Deutschland meinetwegen 5 Mio PCs <5 Jahre mit Grafikkarte drin gibt und die 10.000 Karten verkaufen kann es ja durchaus sein, dass es nur die "Reichen und Schönen" gekauft und bar bezahlt haben.

Und 2500 Euro auf dem Konto zu haben ist keine so große Kunst.
2x Vollzeittätigkeit, normale 80m² Wohnung, kein fettes Auto, nicht 2x im Jahr Urlaub auf den Malediven und (ganz wichtig!) keine Kinder. Da bleibt auch mal schnell ein Tausender im Monat über.
 
Bin auf die 4070Ti gespannt, on es da schafft noch schlechteres P/L zu bringen als bei der 4080.
Mal sehen ob es die 4070Ti in den kommemden 2 Jahren überhaupt schafft unter meine Schmerzgrenze von 750€ zu kommen
 
nobbivm schrieb:
Ob ich nochmal so unvernünftig bin wie damals, als ich mir die Leadtek Winfast A250 Ultra GF4 Ti 460 gekauft habe?
Obwohl, über zwei Jahre konnte die Karte kein Game aus der Ruhe bringen.
Dann sind damals aber deine Anforderungen bedeutend weniger gestiegen als die Leistung in der selben Zeit - ne 4600TI ist aus 02/2002, im Herbst 2002 gab es schon die R300, so ne 9700 Pro von ATI war phasenweise Faktor 2-2,5x so schnell, vor allem hohe Auflösung und MSAA gaben viel viel Unterschied. Damals war der Zuwachs im Schnitt deutlich höher zu heute und es ging dazu noch viel schneller. 2 Jahre (heute Standard zwischen Releases) waren damals Welten. Faktor 4 in der Leistung oder so im Dreh.
ActionNews schrieb:
Wieso auf Raytracing verzichten? Ist jetzt 3090/Ti Raytracing Performance plötzlich unbrauchbar? Warum haben sich Leute dann 3090er gekauft?
Kommt halt drauf an was man machen will. Hab hier grad ne 3080TI stecken, da kannste bspw. weder Portal with RTX noch TW3 mit Next Gen Update, aktivem DLSS (selbst Performance anstatt Quality) und reduzierten RT Details knicken in UHD. Und ich hab dummerweise nen UHD Screen. Knicken meint, es ist so langsam, dass es unspielbar ist. Drops in den niedrigen 20er Bereich. Beim Hexer bspw. selbst nur mit Spieglung und Licht, ohne Schatten und AO tut das nicht.

Ampere ist/war toll in non RT Games, aber mit UHD ist das nicht nutzbar. Mit ner 4090 und DLSS3 mit Frame Generation fluppt das hingegen. Leider tut das nicht mit Ampere oder Turing. Blender mit aktivem OptiX Liverenderer hingegen funktioniert 1a.
 
Zurück
Oben