News Krypto-Flaute: 36 % weniger Grafikkarten als vor einem Jahr verkauft

Dieses scheiß Gejammer dieser Branche :freak:
Wie siehts denn aus, wenn man den Status Quo ggü. dem Zeitpunkt vor Mining vergleicht?
 
  • Gefällt mir
Reaktionen: Laphonso und Don Sanchez
Die Zahlen sind - wenn man die Marktsituation im Ganzen betrachtet, eigentlich absolut im Rahmen.
Wenn man es richtig liest, steht AMD sogar noch halbwegs okay da.
Nvidia hat neue Karten raus gebracht, AMD quasi nix außer die 590 als Refresh und der Mining-Boom ist vorbei.
Ich bin jetzt selber mal sehr gespannt wie Navi wird und vor allem wie diesmal der Fokus auf dedizierte Karten sein wird, oder ob man sich erst mal auf PS5 und Co. konzentriert. Stärkere Konkurrenz wegen der Preissituation wäre mal gut.
Auf Intel kann man ja derzeit noch nicht setzen, die kommen frühestens 2020 und da wird man auch erst mal sehen, in welchem Bereich die sich einsortieren.
 
Laphonso schrieb:
[...]Es gibt die gut verdienende Generation der 30-50jährigen, denen 1000 Euro für eine GPU "egal" sind, weil es ein Hobby ist. Das vergessen hier viele im CB Forum, da werden nvidia Käufer immer mal wieder als "Idioten" oder "dumm" oder "Opfer" tituliert, ohne dass die Moderatoren eingreifen, warum auch immer.
[...]
Der Marketshare von nvidia zeigt aber eindeutig, dass das hier postulierte "keiner kauft diesen teuren nvidia Kram" komplett realitätsfern ist.
[...]

Guter Beitrag, aber bei den beiden zitierten Punkten würde ich doch widersprechen wollen. Nicht, weil das Geschriebene komplett falsch ist, sondern, weil es mMn zu kurz gedacht ist, wenn man jetzt mit der "1000€ sind mir egal" Mentalität an die RTX Serie heran geht.

Ich will auch in 10 Jahren noch einen Markt und kein Monopol haben, da ist es doch fatal, wenn man NVidia jetzt bei einer (zumindest preislich) diskussionswürdig GPU Generation wieder 'mit Geld zuwirft'. Dann kann man sich in 2 Jahren schon mal drauf gefasst machen, dass das Top Modell RTX 3080Ti ~1500€ kostet.

Wenn man finanziell dazu in der Lage ist, ist es in erster Linie bequem zu sagen: "Ich will jetzt aber mehr Leistung haben, mir ist egal, was das für den Markt bedeutet" aber mit der Argumentation blasen wir als Gesellschaft auch gerade Unmengen Treibhausgase in die Atmosphäre und zerstören unser Klima nachweislich.

Bis 1440p kann man mit einer Vega 64 auch fast jedes Spiel befeuern und BF V läuft geschmeidig in 4K/60. Sonst stellt man eben mal von Ultra auf High, das merkt man im Spiel dann auch kaum. Aber es kann doch wohl nicht das Ende der Fahnenstange sein, das man argumentiert, wie mein kleiner Neffe: "Ich will aber."

Da erwarte ich gerade bei einem Hobby, dass man mit etwas mehr Weitsicht an die Sache herangeht. Sonst klingt das ein bisschen wie auf dem Heck der Titanic...
DUyQedZX4AIgldg.jpg
 
  • Gefällt mir
Reaktionen: Nager47, dister1, Steini1990 und eine weitere Person
Ach BWL Menschen wieder. Da haben sie mal ein Event bei dem sie übermäßig viel verkaufen, schon ist dies der neue Maßstab für das nächste Jahr und alles darunter Verlust. An sich ist es nur eine Normalisierung, von Verlust keine Spur.

Außerdem ist die Hardware Anno 2018 ein schlechter Scherz. Sowohl bei CPUs und GPUs. Viel zu heiß, viel zu teuer bei kaum Mehrleistung. Dann die neue Methode der künstlichen Verknappung um erst die wohlhabenden abzukassieren, um dann später den Rest bedienen zu können. An sich gehören CPUs mit bekannten Lücken vom Markt genommen.
 
  • Gefällt mir
Reaktionen: lanoo
Laphonso schrieb:
Ich verstehe Deine „Botschaft“, und wir sind uns bei den Preisgestaltungen sicher eher einig.
Aber bei dem Vergleich wäre zu erwähnen, dass die 980Ti keine Tensor cores hat und damit auf dem AI/DLSS/RT bzw. DXR Feature contest mit 0 direkt raus ist, ebenso wie die 1080ti.
Die 2080Ti ist also nicht nur doppelt so schnell (in manchen sogar 3 mal schneller) wie die 980Ti, sondern liefert auch exklusiv neue, hardwareseitige Funktionen. Dann past das auch mit dem 3fachen Preis im Sinne es ist plausibel.

Das ist mir bewusst, ist aber auch extrem individuell. Nicht jeder möchte 1200€ ausgeben, um dann knapp 60fps in 1080p zu erhalten, vor allem wenn die nächste Generation das dann möglicherweise gleich verdoppelt und die 1200€-Karte nach knapp einem Jahr nahezu wertlos macht. Das weiß man zwar noch nicht sicher, war bei neuen Technologien aber eben oft so. Ganz nebenbei haben neue Hardware-Features bisher selten bis nie einen solchen Aufpreis gekostet.
DLSS ist Upscaling mit einem Leistungs- und Qualitätsverlust, der im Endeffekt einer leichten Steigerung der Auflösung entspricht, da gab es ja mal den Vergleich mit 3200x1800, was nahezu identisch aussieht und identisch schnell läuft... Da DLSS anscheinend auch nicht gleichzeitig mit RTX verwendet werden kann, da man dort auch die TensorCores zur Rauschminderung braucht (und es trotzdem noch ordentlich rauscht...), finde ich diese Hardware-Features sind den Aufpreis nicht im Geringsten wert.
Manch einer mag sich da als Investor sehen, der dem armen NVidia viel Geld für die Zukunft schenken möchte (Make RTX Great?!?), aber damit kann ich mich nicht identifizieren, ich geb mein Geld dann halt lieber der Konkurrenz. ;)
 
MichaG schrieb:
Grafikkarten-Absatz leidet unter Krypto-Flaute [...] litt die Grafikkarten-Branche besonders stark [...]
Äußerst seltsame Formulierung @MichaG - wir haben keine "Krypto-Flaute", die Blase ist geplatzt, der überraschende Mining-Boom ist vorbei - keine Flaute sondern Rückkehr zum Normalzustand. Mit Leiden hat das somit auch wenig zu tun, und wenn doch, dann selbst verschuldet - null Mitleid mit den Gierschlünden!

KarlKarolinger schrieb:
Ja klar, man bekommt keine 144fps auf Ultra in 4K mit RayTracing wie mit NVidia und dem Intel 9900K [...]
Die bekommst du auch bei Nvidia nicht...

Laphonso schrieb:
Aber bei dem Vergleich wäre zu erwähnen, dass die 980Ti keine Tensor cores hat und damit auf dem AI/DLSS/RT bzw. DXR Feature contest mit 0 direkt raus ist, ebenso wie die 1080ti.
Die 2080Ti ist also nicht nur doppelt so schnell (in manchen sogar 3 mal schneller) wie die 980Ti, sondern liefert auch exklusiv neue, hardwareseitige Funktionen. Dann past das auch mit dem 3fachen Preis im Sinne es ist plausibel.
Bringt halt nichts, wenn diese Features nicht gewollt sind, oder in den Spielen die man spielt überhaupt nicht genutzt werden.

Laphonso schrieb:
TLDR: Man kann die 2000er GPU Preise nicht isoliert von der Turing Technologie betrachten, weil man die mitkauft.
Das macht den Preisvergleich schwierig.
Dann soll Nvidia halt als Alternative eine GTX 2080/1180 herausbringen...
 
  • Gefällt mir
Reaktionen: Kuomo und Rock Lee
Don Sanchez schrieb:
Die bekommst du auch bei Nvidia nicht...

Eine absichtliche Übertreibung gibt es bei mir aber sogar umsonst! ;):D

Bezüglich der GTX 2080 geb ich dir Recht. Wenn sie den Chip mit dem ganzen Zusatzkram so teuer auf den Markt werfen, sind sie es halt selber Schuld wenn er sich weniger gut verkauft. Ist bei der Gewinnmarge und Konkurrenzmangel aber vermutlich auch egal. Wer das Zeug haben will, muss halt den Preis schlucken und unterstützt damit gleichzeitig finanziell dieses Verhalten für die Zukunft. :daumen:
 
Skilance schrieb:
Wenn man für manches Modell so viel ausgibt, wie man früher für einen ganzen Rechner bezahlt hat, dann geht es den Firmen (Nvidia) noch viel zu gut.
Es gibt eben immer mehr Gamer die in die Jahre kommen und sich auch teurere Hardware leisten könne. Bei den Motorrädern ist es genauso, meist kommen heute graue Haare zum Vorschein wenn der Helm abgenommen wird, aber dafür verkaufen sich heute vor allem hochpreisige Maschinen, während das was früher Mittelklasse war, heute auf dem Markt kaum noch existiert.
Die wilde Inge schrieb:
Die NVidia Aktie ist ziemlich massiv im Preis gesunken. von ~250 auf ~140€. Ich frage ob man jetzt kaufen sollte :-D
Der gesamte Markt ist gefallen und die Technolgieaktien ganz besonders. Ob dies der Anfang oder das Ende der Talfahrt ist, kann keiner wissen, da muss jeder selbst seine Entscheidung treffen und dann mit den Konsequenzen leben.
Shoryuken94 schrieb:
Kryptowährungen sind durchaus berechtigt
Wofür?
Laphonso schrieb:
Es gibt die gut verdienende Generation der 30-50jährigen, denen 1000 Euro für eine GPU "egal" sind, weil es ein Hobby ist. Das vergessen hier viele im CB Forum, da werden nvidia Käufer immer mal wieder als "Idioten" oder "dumm" oder "Opfer" tituliert, ohne dass die Moderatoren eingreifen, warum auch immer.
Eben genau so ist es! Auch bei den CPUs waren früher 1000$ das Limit für die größte HEEDT CPU und inzwischen sind wie bei 1800 (AMD) bzw. 2000$ angekommen. Es gibt eben heute eine wachsende Käuferschicht die sich sowas leisten kann und will. Bei denjenigen die dies nicht verstehen und dies als dumm oder Idioten abtun, dürfte vor allem der Sozialneid die Gedanken beherrschen, der ist ja leider in Deutschland sehr ausgeprägt.
Laphonso schrieb:
Diese Oberflächlichkeit und Mißgunst schadet alles unseren Debatten hier und lässt jedes GPU Fachgespräch zu einem red vs green Lagerkampf verkommen.
Und ebenso bei den CPUs, da kann nichts machen und es macht diese Foren nicht attraktiver.
Floxxwhite schrieb:
Block-chain ist aber im Finanzsektor hoch interessant.
Wieso sollte sie das? Die Blockchain ist die Verarschung des Jahrzehntes, denn sie dezentral nur sicher sein, wenn sie so viel Rechenleistung auf sich vereint, dass ein 51% Angriff durch den Aufwand unmöglich ist und damit kann es nur eine sichere, dezentral Blockchain geben, nicht aber viele und die ist zwangsläufig dann auch entsprechend ineffizient. Die Alternative ist eine zentral organisierte Blockchain bei der die Zentrealstelle die Transaktionen validiert bzw. bestimmt wer dies machen darf und dann hat man genau wie bei klassischen Datenbanken eine Zentrale die man vor Angriffen schützen müssen, da kann man auch gleich bei den klassischen Lösungen bleiben.

Die Finanzbranche weiß dies auch, so hat z.B. Credit Suisse geschrieben:
Wie gewaltig diese Rechenleistung sein muss, ist nur eben relativ.

Nur wollte bei der Hype die im letzten Jahr um das Thema Blockchain und Crytos gemacht wurde, keiner so tun als würde er nicht dabei sein, denn bei anderen sind die Kurse explodiert, wenn nur irgendwas mit Blockchain oder Coin vermeldet wurde:
In 10 Jahren redet keiner mehr davon und keiner wird den Mist mehr benutzen, weil es einfach nur Unsinn ist.
rob- schrieb:
Außerdem ist die Hardware Anno 2018 ein schlechter Scherz. Sowohl bei CPUs und GPUs. Viel zu heiß,
Welche CPU wird zu heiß? Wenn Du den 9900K meist, solltest Du wissen woher dies kommt:
Die Mainboardhersteller übertakten die CPUs schon in der Defaulteinstellung und teils kann man das UEFI gar nicht mal so einstellen, dass dies nicht passiert. Intels hat daran allenfalls Schuld weil sie die Mainboardhersteller da nicht stärker an die Kandare nehmen. Wobei alle es nach der Erfahrung mit Skylake-X, wo dies bei der Einführung auch ganz extrem war und mit späteren UEFI Updates dann etwas entschärft wurde, eigentlich besser wissen müssten, die Mainbaordhersteller, Intel, aber auch die Reviewer und die User. Aber dann hat man ja nichts mehr um zu meckern.
 
  • Gefällt mir
Reaktionen: Laphonso
Langsam rächt sich die Preistreiberei bei Grafikkarten jetzt zu Lasten der Hersteller. Die Kunden sind immer noch Verunsichert über die zum Minigboom Verlangten Preise welche teilweise immer noch höher sind als davor.

Die Lager dürfen weiter voll bleiben damit man den Hersteller seine Profitgier vor Augen führen kann. Am besten wird man was sehen können nach Weihnachten ob sich vom Preis her was tut. Und wenn nicht, auch nicht so Schlimm der Kunde kann warten viele Spiele brauchen keine RTX 2070/2080 oder RX590…

Meine Zotac 1060 ITX hab ich Anfang 2017 für 229€ gekauft, kostet aktuell immer noch über 250€ .
 
Bin nicht so UptoDate aber das AMD nur einen Marktanteil von um die 26 % hat, finde ich schon auffällig niedrig. Hätte ich höher erwartet weil die Grakas doch günstiger sind. Es jammern doch alle über die Nvidia Preise rum.
Scheint der Kunde dann doch gern mehr Geld für etwas mehr Leistung und deutlich niedrigeren Sromverbrauch zu honorieren ? ich z.B. hätte mir vor ein paar Wochen gern eine neue Radeon 580 geholt aber dafür hätte ich auch ein neues Netzteil kaufen müßen. Daher ist es eine gebrauchte 1060er geworden.
 
Laphonso schrieb:
Wer auf den Taler achten muss und die dem Freesync überlegene GSync Technik nicht nutzt oder braucht, der ist bei den AMD 5xxx und Vega Modellen doch super aufgehoben.

Man mag ja Argumente für die ‚Überlegenheit‘ von G-Sync finden, aber die ‚FreeSync-Probleme‘ aus dem Artikel sind keine FreeSync-Probleme, sondern Probleme von individuellen Bildschirmen mit FreeSync-Unterstützung. Es gibt FreeSync-Schirme mit sehr enger FreeSync-Range und es gibt FreeSync-Schirme, die ghosten, aber das liegt nicht an FreeSync. Was im Vergleich zu G-Sync fehlte, war eine Art von Qualitätskontrolle bei den Bildschirmen bzw. Panels. Die Anforderungen für FreeSync2 sind deutlich schärfer und LFC ist mit dabei, was das erwähnte ‚Ruckelproblem bei Verlassen der FreeSync-Range nach unten‘ bekämpft (verwunderlich, dass FreeSync außerhalb des angegebenen Bereiches an Bildern pro Sekunde nicht mehr funktioniert). Das liest sich insgesamt wie ein schlecht recherchiertes Kondensat des schon damals zweifelhaften Artikels von PCPerspective zum Thema (den ich im Orginal leider gerade nicht finden kann).

Was Input-Lag und Verhinderung von Tearing angeht, gibt es soweit ich weiß keine großen Unterschiede zwischen G-Sync und FreeSync.

Ein definitiver Nachteil bei der Umsetzung neurer G-Sync Schirme ist, dass das neue G-Sync HDR Modul geschätzte 500$ kostet, deshalb nur bei absoluten High-End Bildschirmen verbaut wird, und der Vorgänger nicht ausreichend Bandbreite für 3440x1440p@144Hz mitbringt. Als Beispiel sollten diese beiden LG Bildschirme genannt werden. Hier ist der FreeSync-Schirm sogar technisch überlegen.
 
Wettbewerb hilft immer noch am meisten gegen steigende Preise. Leider kauft der DAU lieber Hardware von einem Hersteller der ihn mit falschen dx-level (Kepler) oder beim VRAM (Maxwell) übers Ohr haut. Ist ja nicht so, dass AMD zB mit der 390 keine richtig gute Karte hatte (2x VRAM, mehr Leistung, gleicher Preis) und dennoch kaum Anklang fand. Also braucht auch keiner über zu hohe Preise jammern, wenn AMD mal nicht mehr den Preisdrücker spielt.
 
Gut so.. ich vergönne es ihnen, nach der Abzocke im letzten Jahr und dem was NVidia preislich mit der RTX Serie aufführt war ein Dämpfer schon lange überfällig.
 
So extrem die Verkäufe durch das Mining gestiegen sind so extrem fallen sie jetzt. So gesehen ist der Vergleich nicht sehr aussagekräftig was die langfristige Entwicklung betrifft.
 
Habe auch eine Weile gewartet aber die Preise von Nvidias RTX Serie werde ich nicht bezahlen. Habe mir dann spontan im Verkauf eine Vega 56 geholt und die Karte gefällt mir sehr gut. Freesync tut sein übriges. Finde zwar, dass 369€ echt ne Menge Holz ist aber Preis-Leistung ist bei der Karte in Ordnung. Bei Wow langweilt sich die Karte und die anderen grafikintensiven Spiele laufen auch perfekt. Aber jetzt ist endlich Ruhe im Arbeitszimmer und ich sitze nicht neben einem Fön. Mal sehen wie die neue Generation von AMD wird.
 
Don Sanchez schrieb:
Bringt halt nichts, wenn diese Features nicht gewollt sind, oder in den Spielen die man spielt überhaupt nicht genutzt werden.


Dann soll Nvidia halt als Alternative eine GTX 2080/1180 herausbringen...
Ich glaube nicht, dass NVIDIA eine solche Alternativen herausbringen wird, weil sie ja nun viele Jahre Geld, Zeit und Ingenieur = Ressourcen investiert haben und ihre Produktion darauf ausgelegt haben.
Diese Features stellen einen Technologiesprung dar, und er kommt auf jede neue Karte, die sie produzieren. Evtl gibt es ja kleinere 2000er ohne die Tensorcores, aber gegen die 70, 80, 80Ti und kommende RTX Titan stellen sie keine 2180 ohne die neuen Chips.

Zu den Turing Features:
Mal abwarten, der Erfolg oder Misserfolg würzig über die nächsten Monate andeuten : https://www.anandtech.com/show/1334...tx-2080-ti-and-2080-founders-edition-review/3

142F5BD4-206B-4EDA-80AA-0979B10C0C77.png
 
Jetzt sind die Grafikkarten Verkäufe wieder auf "Normallevel" und es wird gejammert? Kein Wort von der Miningzeit wo die Karten außer der Reihe massenhaft verkauft wurden und somit außerplanmäßiger Gewinn eingefahren wurde.
Das die Miningblase irgendwann platzt kam völlig überraschend - lol.

@Laphonso
Vielen Dank für die Liste, aber da ist gerade mal ein Spiel bei was ich evtl. spielen würde.
Das löst also genau "0" Kaufanreiz in mir für die Turing aus.

Demnach kann ich beruhigt die Füße hochlegen und auf den Turing Nachfolger, oder noch besser auf den Vega Nachfolger, warten.
 
cookie_dent schrieb:
@Laphonso
Vielen Dank für die Liste, aber da ist gerade mal ein Spiel bei was ich evtl. spielen würde.
Das löst also genau "0" Kaufanreiz in mir für die Turing aus.

Demnach kann ich beruhigt die Füße hochlegen und auf den Turing Nachfolger, oder noch besser auf den Vega Nachfolger, warten.

Die Liste(die in der Tat vorerst meh ist) ist aus dem September, der Fokus liegt ohne Zweifel auf die 2019er Games, daher meine These, dass sich der Erfolg auch im nächsten Jahr dann einstellt oder vielleicht auch nicht :)
Ergänzung ()

Rage schrieb:
Man mag ja Argumente für die ‚Überlegenheit‘ von G-Sync finden, aber die ‚FreeSync-Probleme‘ aus dem Artikel sind keine FreeSync-Probleme, sondern Probleme von individuellen Bildschirmen mit FreeSync-Unterstützung. Es gibt FreeSync-Schirme mit sehr enger FreeSync-Range und es gibt FreeSync-Schirme, die ghosten, aber das liegt nicht an FreeSync. Was im Vergleich zu G-Sync fehlte, war eine Art von Qualitätskontrolle bei den Bildschirmen bzw. Panels. Die Anforderungen für FreeSync2 sind deutlich schärfer und LFC ist mit dabei, was das erwähnte ‚Ruckelproblem bei Verlassen der FreeSync-Range nach unten‘ bekämpft (verwunderlich, dass FreeSync außerhalb des angegebenen Bereiches an Bildern pro Sekunde nicht mehr funktioniert). Das liest sich insgesamt wie ein schlecht recherchiertes Kondensat des schon damals zweifelhaften Artikels von PCPerspective zum Thema (den ich im Orginal leider gerade nicht finden kann).

Was Input-Lag und Verhinderung von Tearing angeht, gibt es soweit ich weiß keine großen Unterschiede zwischen G-Sync und FreeSync.

Ein definitiver Nachteil bei der Umsetzung neurer G-Sync Schirme ist, dass das neue G-Sync HDR Modul geschätzte 500$ kostet, deshalb nur bei absoluten High-End Bildschirmen verbaut wird, und der Vorgänger nicht ausreichend Bandbreite für 3440x1440p@144Hz mitbringt. Als Beispiel sollten diese beiden LG Bildschirme genannt werden. Hier ist der FreeSync-Schirm sogar technisch überlegen.

Wie bei den Autos kostet stärkere Technik (vgl. Motor) mit mehr PS mehr Geld. Daher der GSync Preisaufschlag über die Monitore. DIe Unterschiede sind aus subjektiver Sicht ggf. margnal, aber vorhanden.
https://www.pcworld.com/article/297...rate-displays-make-pc-games-super-smooth.html
https://www.techspot.com/article/1454-gsync-vs-freesync/

Das kann man natürlich (!) als Nachteil sehen, unabhängig von der Technik, weil man das Nvidia Modell bezahlen muss.
Zudem muss man bei den GSync Monitoren weniger recherchieren, das funzt out of the Box mit allen Features vs "The main takeaway from looking at a range of G-Sync and FreeSync displays is that G-Sync is a known quantity, whereas FreeSync monitors vary significantly in quality. Basically every G-Sync monitor is a high-end unit with gaming-suitable features, a large refresh window, support for LFC and ULMB – in other words, when purchasing a G-Sync monitor you can be sure you’re getting the best variable refresh experience and a great monitor in general. "

Der aus meiner persönlichen Sicht größte Nachteil für uns ist eher, dass wir - im Gesgensatz zum Automarkt - nur 2 Möglichkeiten haben, die quasi mit dem GPU Kauf recht genau im Korsett stehen.
 
Zuletzt bearbeitet:
Also mir soll das jetzt erstmal ne ganze Weile lang egal sein. Hab meine 1070 zu release als sie noch "billig" war gekauft und den Rest vor kurzem aufgerüstet.

Jetzt bin ich zufrieden und hab die 8 Jahre alte Hardware raus aus dem Rechner. :D Mal sehen was in 3 Jahren oder so am Markt abgeht.
 
Zurück
Oben