News Krypto-Flaute: 36 % weniger Grafikkarten als vor einem Jahr verkauft

Riseofdead schrieb:
Naja wenn AMD auch mal wieder High End Karten anbieten würden die Nvidia das Wasser reichen können oder sogar besser sind bei günstigeren Preis, dann würden auch die Preise fallen. Aber solang die nur eine 590er und eine Vega 56/64 vorweisen können ist es klar das keiner AMD Karten kauft.

AMD soll Grafikkarten bauen die für einen "OHA" Effekt sorgen und die 2080Ti alt aussehen lässt.

AMD braucht keine Karte, die die 2080Ti alt aussehen lässt. Die brauchen eine Karte ala HD5xxx Zeiten. Gute Performance zum guten Preis mit einer guten, für die Zukunft gerüsteten Architektur. Dass man immer den längsten angeblich brauchen muss... 🙄.
 
  • Gefällt mir
Reaktionen: v_ossi
AMD bräuchte nur eine Mittelklassekarte für die kein persönliches Stromkraftwerk notwendig ist.
 
  • Gefällt mir
Reaktionen: lanoo und Don Sanchez
warum sollte AMD, denn Nvidia macht der Zeit keinen Sinn.:mussweg:
 
Zuletzt bearbeitet von einem Moderator:
OdinHades schrieb:
Dem Planeten ist das alles so egal.
Das bringt mich zu meinem Apokalypse-Lieblingswitz:

Treffen sich zwei Planeten. Sagt der eine:
„Hey, wie geht´s?“
Antwortet der andere:
„Beschissen! Ich glaub, ich hab Homo sapiens.“
„Oh, das ist schlimm“, sagt der erste. „Das hatte ich auch schon. Aber weißt du was? Das geht vorüber.“

Dem Planeten ist das in der Tat egal, der dreht sich einfach seelenruhig weiter.
 
  • Gefällt mir
Reaktionen: perfectsam, dister1, Bonanca und 7 andere
AMD / Nvidia = Chipdesign (Herstellung TSMC/GF) und Herstellung (Sub Unternehmen) eigene Grafikkarten.
AMD / Nvidia = Verkaufen Chips an Boardpartner (Asus, Gigabyte usw.) und direkt Kunden.
AMD / Nvidia = Viel verkauf an Boardpartner (Asus, Gigabyte usw.), wenig an Kunden.
Die Verkaufen die Chips doch an Boardpartner und OEM´s in 10,000 Paketen und mehr, damit sind die raus und Bezahlt.
Der Speicher (Samsung/Micron), Board, Wiederstände, Kondenstatoren usw. kommt ja auch nicht von AMD/Nvidia.
Würde mich interessieren wie die Preise in diesem Umfeld sind.
Der Endkundenpreis wird "Denke Ich" vom Boardpartner über den Großhändler zum Einzelhändler definiert.
Wenn dann verdienen die Chipdesigner nur über Masse.
 
Zuletzt bearbeitet:
Niygo schrieb:
AMD braucht keine Karte, die die 2080Ti alt aussehen lässt. Die brauchen eine Karte ala HD5xxx Zeiten. Gute Performance zum guten Preis mit einer guten, für die Zukunft gerüsteten Architektur. Dass man immer den längsten angeblich brauchen muss... 🙄.

Den Preis-Leistungs Vergleich gewinnt AMD doch schon lange im "Massenmarkt". Alle, die midrange kaufen wollen, landen eher bei AMD.
https://www.techradar.com/news/comp...idia-who-makes-the-best-graphics-cards-699480

Diese Aussagen

"Right now the RTX 2080 Ti completely blows away every other consumer-grade graphics card with 11GB of GDDR6 memory and high-end Tensor and RT cores that will enable AI-controlled super sampling and real-time ray tracing. AMD right now doesn’t have anything in the same ballpark – but does that even matter?
AMD has always been known for being the clear value champions, whereas Nvidia usually has more powerful hardware. "

und
"It’s up to you who wins the fiery contest of Nvidia vs AMD, although we will say this: Nvidia is unmatched in the 4K market right now. If it helps any, the RTX 2080 Ti is probably your best bet if you want your PC to keep up with your Ultra HD display – as long as you can afford it. If you’re on a budget, though, Nvidia and AMD graphics cards will be about the same, at least until lower-end Turing cards make their way to the public. "

fassen es ganz gut zusammen.

Wer auf den Taler achten muss und die dem Freesync überlegene GSync Technik nicht nutzt oder braucht, der ist bei den AMD 5xxx und Vega Modellen doch super aufgehoben.
Wer early adopter ist für Raytracing (was m.E. eine superbe Ingenieursleistung ist), um quasi-Echtzeit RT auf Konsumer(!)karten zu erhalten (was mich fasziniert, nachdem ich vor rund 30 Jahren so etwas auf dem Amiga 500 bestaunt habe. RT ist nix Neues in dem Sinne, aber die Bereitstellung über RTX ist ein Technologiesprung) und das auch finanzieren will in der Hoffnung, dass Raytracing und DLSS einfach neue Feauters bilden insbesondere für die visuelle/optische Singleplayer Immersion....

und/oder

wer einfach nicht auf den Taler achten muss sondern de facto plain sheet fps Leistung einkaufen will...

landet bei nvidia. Weil AMD keine Alternative ist für Enthusiasten, die das Maximum an fps bei maxed gfx Sliders haben wollen auf 2560*1440, 3440*1440 und 4K und ggf. die neuen RTX Features und ggf. Gsync. mit einbezieht.

Eine High End Karte von AMD, nicht nicht nur irgendwie die Lücke schließt, sondern das aktuelle nvidia Topmodell mal 10-20% hinter sich lässt, wäre für uns alle dringend notwendig.
Bis dahin kann nvidia (sowie die Custom Boardpartner) bei den 2000er Karten ordentlich zulangen.

In meinen privaten Zockergruppen rate ich seit jeher bei Budget+Midrange Ansatz pauschal zu AMD GPU's, bei fps Freaks pauschal zu nvidia.
Es gibt die gut verdienende Generation der 30-50jährigen, denen 1000 Euro für eine GPU "egal" sind, weil es ein Hobby ist. Das vergessen hier viele im CB Forum, da werden nvidia Käufer immer mal wieder als "Idioten" oder "dumm" oder "Opfer" tituliert, ohne dass die Moderatoren eingreifen, warum auch immer.
Diese Oberflächlichkeit und Mißgunst schadet alles unseren Debatten hier und lässt jedes GPU Fachgespräch zu einem red vs green Lagerkampf verkommen.


Wie im verlinkten Artikel haben AMD und nvidia ihre Daseinsberechtigung. Der Marketshare von nvidia zeigt aber eindeutig, dass das hier postulierte "keiner kauft diesen teuren nvidia Kram" komplett realitätsfern ist.
Wer Langeweile hat, kann man schauen wie in den letzten Monaten gegen die 2000er nvidia Reihe gewettert wurde, weil doch wohl NIEMAND so "doof" sein kann, diese fail GPUs zu kaufen.
Das nennt man dann Ignoranz, oder?

So, peace, und die Hoffnung, dass AMD mal so aus dem Nichts den GPU Markt erschüttert, wie der Ryzen seinerzeit die Intel Desktop CPU Dominanz komplett umgegrätscht hat :)
 
  • Gefällt mir
Reaktionen: SP1D3RM4N, Wordi, Holt und eine weitere Person
Gekauft wird was gefällt und was der Geldbeutel gebietet.
Jeder der sich mit der Materie beschäftigt, wird für sich nach, Preis/Leistung und inzwischen Preis/Leistung/Verbrauch orientieren und kaufen. Einige kaufen, weil sie sich im N oder A Universum auskennen und nicht umlernen wollen, andere aus gewohnheit und guten Erfahrungen. Fanboy gehabe geht mir auch auf den Sack und ist der Diskussion nicht förderlich.
Klar der eine bietet das Feature, der andere nicht und irgendeiner hat immer die Leistungskrone inne.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso und Ernie75
Tja, ich würd ja gerne eine neue kaufen, aber nicht zu den Preisen. 350€ für eine RTX 2070 wären okay aber keine 500€+!
 
NDschambar schrieb:
Ich denke immer noch, dass die Grakahersteller einen nachhaltig großen Fehler begangen haben, die treueste Kundschaft - also die Gamergemeinde - während des Mininghypes derart vor den Kopf zu stoßen. Die exorbitanten Preise dürften viele PC-Spieler in die Konsolenarme getrieben haben.

Das verstehe ich nicht? Was haben AMD und Nvidia mit den Preisen zu tun, die die Händler aufgerufen haben?

Die verkaufen eine festgelegte Zahl Chips zum festgelegten Preis an AIB xyz und das war es auch schon mit den Möglichkeiten der Preisgestaltung.
 
Also hat dieser Bitcoin Wahnsinn endlich ein Ende gefunden, dann könnte es die Chance geben, dass die Karten in Zukunft wieder normalere Preise haben werden.
 
Ich hoffe das wirkt sich jetzt auf die unverschämten RTx Preise aus !!
 
Ein Hype sofort als Normalfall verkaufen !?
Es war doch klar das das nicht anhält.
Typisch Presse mit ihren Schreckgespenstern, kein Wunder das man die nicht mehr ernst nimmt.
In der Summe haben sie mächig Gewinn gemacht, und jetzt müssen sie den Rest in der Pfeife rauchen.
Das Einzige was es hier zu erwähnen bzw. darzustellen wäre ist die enorme Recorcenverschwendung.
 
Laphonso schrieb:
So einen Unsinn widerlegt man am besten mit bewegten Bildern und Zahlen.

Ja, natürlich hat sich was getan, aber rein nach den Angaben in deinem Video gibt es mit der 2080Ti im Vergleich zur 980Ti die doppelten fps zum dreifachen Preis. :D Bei Releasepreisen wohl eher zum doppelten Preis, aber das ist dann je nach Kriterien immer noch kein Fortschritt, sondern lediglich eine Erweiterung nach oben.

Eine 20 MegaByte-Festplatte hat auch mal tausend D-Mark gekostet, würdest Du deshalb heute drei Millionen Euro für eine 1 TeraByte-Platte als Fortschritt ansehen?
 
  • Gefällt mir
Reaktionen: Miuwa, Kuomo, DarkerThanBlack und 2 andere
KsB schrieb:
Die armen Grafikkarten Hersteller.. vielleicht sollten wir einen spendenfond einrichten.
Bei den günstigsten Verkaufspreisen gerade bei Nvidia muss man sich wirklich Sorgen das die Gewinnmage nicht unter 60% fällt.
...

ich muss hier einfach noch mal aufklären: Die Umsatzrendite lag in 2017 bei 24,1 % , 2016 bei 12,2 % und 2015 bei 13,4 %, in 2014 bei 10,7 %.

Ob die Rentabilitätssteigerung auf einmal effekte im Jahr 2017 zurückzüfuhren ist (bilanziell oder mining, müsste CF mal anayliseren), habe ich jetzt nicht recherchiert. Aber selbst wenn: Solche Umsatzrenditen die so eine Marktposition haben sind nicht gerade unüblich. ich würde gar 10 % umsatzrendite als gesund ansehen. Die EK Renditen schwirren übrigens auch in diesen Bereichen rum... 2017 wohl wegen Mining einmalig doppelt so hoch.

Kryptowährungen sind imo. nach unreguliert für legale Dinge totaler Unfug und ein Tummelplatz für Geldwäsche. Die paar angeblichen Wiederständler und Freiheitskämpfer die das benutzen sollten sind doch nur einbildung.

Block-chain ist aber im Finanzsektor hoch interessant.
 
Es ist wirklich traurig, dass Nvidia mit dieser Marktstrategie auch noch erfolgreich ist...

greetz
hroessler
 
  • Gefällt mir
Reaktionen: dersuperpro1337
KarlKarolinger schrieb:
Ja, natürlich hat sich was getan, aber rein nach den Angaben in deinem Video gibt es mit der 2080Ti im Vergleich zur 980Ti die doppelten fps zum dreifachen Preis. :D Bei Releasepreisen wohl eher zum doppelten Preis, aber das ist dann je nach Kriterien immer noch kein Fortschritt, sondern lediglich eine Erweiterung nach oben.

Eine 20 MegaByte-Festplatte hat auch mal tausend D-Mark gekostet, würdest Du deshalb heute drei Millionen Euro für eine 1 TeraByte-Platte als Fortschritt ansehen?
Ich verstehe Deine „Botschaft“, und wir sind uns bei den Preisgestaltungen sicher eher einig.
Aber bei dem Vergleich wäre zu erwähnen, dass die 980Ti keine Tensor cores hat und damit auf dem AI/DLSS/RT bzw. DXR Feature contest mit 0 direkt raus ist, ebenso wie die 1080ti.
Die 2080Ti ist also nicht nur doppelt so schnell (in manchen sogar 3 mal schneller) wie die 980Ti, sondern liefert auch exklusiv neue, hardwareseitige Funktionen. Dann past das auch mit dem 3fachen Preis im Sinne es ist plausibel.

TLDR: Man kann die 2000er GPU Preise nicht isoliert von der Turing Technologie betrachten, weil man die mitkauft.
Das macht den Preisvergleich schwierig.
Ergänzung ()

hroessler schrieb:
Es ist wirklich traurig, dass Nvidia mit dieser Marktstrategie auch noch erfolgreich ist...

greetz
hroessler
Also die besten und neuesten OLED TVs kosten auch brutal viel Geld.
High End Technik findet immer Käufer.
 
Was AMD machen müsste um nen easy win einzuholen wäre einfach eine Karte rauszuhauen die gleich auf ist oder evtl. etwas schneller als die verschiedenen RTX Serie Karten, ohne diese sinnlosen RayTracing und AI cores, schon allein dadurch wäre der DIE ca zwei drittel kleiner und die gesamte GPU könnte um einiges günstiger verkauft werden, da würde keiner mehr Nvidia kaufen, nicht wegen maximal 5 - 10 spielen in den nächsten 2 Jahren die von den neuen Features überhaupt profitieren (und davon spielt man dann selber vielleicht nur 3 oder 4 und schaltet es nur mal kurz zum testen ein und macht es wieder aus weil die frameraten sonst schrott sind)...

2020 kommt Intel in den GPU markt (nix Intel HD, richtige Grafikkarten!), dann gibts endlich mal wieder richtig Konkurrenz, ich glaube nicht das Intel sich lang mit platz drei oder zwei zufrieden geben wird... und die werden auf jeden fall FreeSync nutzen, dann wirds langsam eng für G-Sync (und das sag ich als G-Sync User mit ner GTX1080).
 
Zurück
Oben