News Bruch mit Nvidia: EVGA steigt aus dem Geschäft mit Grafikkarten aus

Matthias B. V. schrieb:
Würde mich nicht wundern dass man wegen Exklusivverträgen aktuell nicht mit AMD / Intel an GPUs arbeiten darf - auch weil man schon Einsicht in die RTX40er Serie hatte.
Es gibt durchaus Verträge die Klauseln haben, dann man eine Zeit lang XY nicht zu einem Konkurrenten wechseln darf. NVIDIA wird wohl so etwas in der Richtung auch haben. Bei ASUS würden sie mit so etwas gar nicht durch die Tür kommen ;)
 
SteffenXK schrieb:
Das könnte schnell das komplette aus für EVGA sein, denn Enthusiasten bauen sich gern komplette Sets eines Herstellers zusammen, und wenn dann so eine große Komponente wie eine Grafikkarte raus fällt, warum sollte man dann Netzteil Mainboard und Kühlung von EVGA Kaufen wenn die Grafikkarte, die ein sehr Präsenter Teil in einem Gaming PC ist, Optisch nicht zum Build Passt.
Ja das sehe ich ebenso als Risiko...
 
  • Gefällt mir
Reaktionen: |SoulReaver|
wern001 schrieb:
Es hat auch andere Hersteller mit New World getroffen. Nur einige Leute die eine EVGA hatten haben am lautesten geschrien.
Das wurde nie bestätigt und basiert nur auf irgendwelchen Forenposts. EVGA hat es als einziger bestätigt und es waren unter 1% (12 in Summe weltweit) der Karten betroffen. Es war also selbst bei EVGA noch im Rahmen der RMA Quote.
Kurzgesagt: es gab zu keiner Zeit ein Problem.
 
  • Gefällt mir
Reaktionen: PHuV
Hm, wie groß ist der Anteil von optikdesign PC Käufern? Ernste Frage, ich würde den als maximal einstelligen Prozentanteil an den custom GraKa Käufern einschätzen.

Bin mir übrigens fast sicher, dass Gespräche zu Kooperationen mit anderen Herstellern schon laufen. 80% Umsatz und damit auch Mitarbeiter bekommst du sonst nicht mal eben umgeswitcht.

Was mich überrascht hat, 250 Mitarbeiter weltweit, aber ein Marktanteil von 40% in den USA... 😳
 
rene76 schrieb:
Finde ich gut, ich hatte bisher 4 Karten von EVGA und alle sind nach knapp einem jahr kaputt gegangen, zwar gab es wegen Garantie immer einen Austausch aber normal war das nicht.
darf man fragen welche generation?

zusammen gerechnet hab ich seit der gtx 10xx/rtx 2/3 gen bestimmt knapp 100 karten verbaut, unterm strich ging nur eine karte innerhalb der 3jahres garantie wegen ausfall in rma
 
  • Gefällt mir
Reaktionen: Chismon
rene76 schrieb:
Finde ich gut, ich hatte bisher 4 Karten von EVGA und alle sind nach knapp einem jahr kaputt gegangen, zwar gab es wegen Garantie immer einen Austausch aber normal war das nicht. Ich werde die bestimmt nicht vermissen.
Also mal ehrlich soll das hier irgendwer glauben? Wie hoch ist bitte die Chance, dass einem in seiner ganzen Gaming Zeit vier Karten alle nach einem Jahr vom selber Hersteller kaputt gehen. Nun ja.....
 
  • Gefällt mir
Reaktionen: Riou, jonderson, Leeway und eine weitere Person
BmwM3Michi schrieb:
und die 40% der US-Käufer kaufen dann die FE? Glaube ich jetzt nicht.
Die werden das kaufen was da ist. Und solange es irgendwas von Nvidia zu kaufen gibt, werden sie wohl nicht zu AMD wechseln :D
Den Preisvorteil hat die FE zumindest und sobald Nvidia bunte Lichter auf die FE steckt kauft die auch der letzte Gamer.
 
syfsyn schrieb:
Das sind aber margin nach Abzug der kosten
Genau der zählt an dieser Stelle! Was interessiert mich die Bruttomarge? Soll eine Firma wie Nvidia mit 20% Bruttomarge arbeiten und jegliche F&E, Unterstützung der Firmen und Entwickler und das Marketing einstellen? Was zählt ist der operative Gewinn und der liegt bei 20%, 40% sind also allen beteiligten Partnern und den Kunden zugutegekommen, sonst hätten wir in diesem Bereich längst Stillstand.

Schon mal gesehen wie die Zahlen bei TSMC aussehen?
1663495175928.png

1663495197880.png


Hier liegt die Nettomarge, also der reine Gewinn bei 40%, das ist wirklich das Geld was nirgendwo geflossen ist sondern auf der "hohen Kante" landet. Wer Nvidia eine hohe Marge unterstellt, versteht nicht wie der Markt funktioniert. Nvidia ist kein "Kistenschieber" der nur Ware von links nach rechts verschiebt, sondern ein Unternehmen was Milliarden in die weitere Entwicklung der Technik investiert.

Würden Firmen wie Intel, TSMC oder Microsoft mit einer Bruttomarge von <50% arbeiten, hätten wir längst Stillstand in der Technik. Niedrigere Bruttomargen hat man im produzierenden Gewerbe und Handel wo F&E zweitrangig ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, SFVogt und RogueSix
Matthias80 schrieb:
Nicht zu Ende gedacht!

Es wurde ja allgemein immer behauptet! Das amd und nvidia nicht am mining Boom durch noch höhere Preise ihrerseits mitverdienen würden. Sie haben alles aus den Händen gerissen bekommen was sie hatten. Es konnte gar nicht genug produziert werden.
So wenn evga oder egal welcher Partner jetzt Chips zurück geben wollen würde... Weil es keinen Sinn macht sie auf Karten zu setzen, weil man sie mit nem dicken minus nur verkauft bekommt. Dann ist hier in erster Linie nv die mining bi**h! Sie haben sehr wohl die preise hochgetrieben! Lassen ein Aushängeschild von Partner hängen! Als ob sie es sich nicht leisten können! Von wegen nur der Handel hat kräftig abgesahnt durch Mining! Boah ich hoffe nv fliegt auf die fr***e mit der neuen gen weil keiner diese stromfresser will! Zu den vergesslichen sei gesagt es ist nur bei dem einen Spiel vorgekommen. Ergo kein allgemeines Problem von evga. Es kam durch das Spiel zu diesen Problemen! Es wurden reihenweise rekorde mit dem evga Modellen gemacht. Wenn man die Garantieleistungen vergleichen würde, wäre evga ganz sicher auf Platz eins. Nicht immer so verallgemeinern wenn man mal Pech hatte. Wie ein hortkind das ne wd Platte gekauft hat. Kam warum auch immer kaputt an. Riesen Aufschrei! Nie wieder wd! Schlechtester Hersteller ever! 😂 Ich hab z.B. Noch nie ne kaputte wd gehabt. Sehr wohl aber Seagate. Und? Bin auch nicht mit mein paar Platten der Maßstab. Hier noch nv zu verteidigen. Erbärmlich! Hoffe es gibt bald nur noch founders! Dann könnt ihr euch ja bei Garantie mal mit deren Garantieabteilung rum ärgern! Viel Glück!
Zudem kommt, dass NV seit der Titan Serie die Margen immer mehr steigert und die AIB davon immer weniger haben. Sieht man schon am JPR Sheet, welches hier schon gepostet wurde. Und zwar VOR dem Miningboom. Da NV auch keine Abverkäufe zu günstigen Konditionen zulassen will, die die Marge auf der 3090Ti, wird man eben die Konsequenz gehen und gehen.
Man schaue sich hierzu nur Nvidias Marge an und bekommt direkt ins Gesicht gedrückt, dass da was nicht mehr stimmt. Schade eig, meine EVGA 3060ti ist dann damit die letzte in einer fast 6 Jahrigen EVGA Historie bei mir.
 
Rockstar85 schrieb:
Schade eig, meine EVGA 3060ti ist dann damit die letzte in einer fast 6 Jahrigen EVGA Historie bei mir.
EVGA GTX 280 - GTX 295 - GTX 580 Classified - GTX 680 Classified - GTX 1080 TI - GTX 1080 TI FTW3 Elite. Auch einige in all der Zeit. Wobei ich ehrlich sein muss ich hätte mir keine mehr gekauft. Hoffe auf eine ASUS/Noctua Karte der 4000 Serie. Kein Bock mehr auf Kühlerumbau ;)
 
  • Gefällt mir
Reaktionen: NMA, Rockstar85 und GT200b
Miuwa schrieb:
Kannst du das etwas ausführen? Was hat das jetzt mit meiner Vermutung zu tun, dass die Leute sich erstmal für einen Grafikchip entscheiden
Ahhh, Du meintest den Chip und nicht die jeweiligen Founders Editions der Hersteller.
(Da ich nVidia nicht kaufe, stellt sich mir die Frage nach dem Chip nicht.)
 
  • Gefällt mir
Reaktionen: Miuwa
Ich persönlich glaube EVGA wird verschwinden

Wenn ich ein Geschäft aufgebe das 4/5 meines Umsatzes macht da bleibt nicht wirklich viel über um meine Leute zu bezahlen
 
Zuletzt bearbeitet:
Das wird so sein, denn wer bitte kauft EVGA Mainboards und Netzteile? Alle anderen dinge wie Maus und Co nun ja der Markt ist übervoll und da sticht EVGA wohl nicht heraus.
 
  • Gefällt mir
Reaktionen: GT200b
Capthowdy schrieb:
Schau dir mal ein paar Titel an die viel RT nutzen, dann sind das ganz schnell über 40%, bei Doom Eternal sind es sogar fast 70% in 4K.
Ist Doom Eternal nicht so hochgradig optimiert das da dann der Unterschied 300fps vs 500 fps sind? Außerdem ist das dann eines der ganz wenigen Vulkan Spiele. Und der Durchschnitt bleibt der selbe das heißt dann umgekehrt logischerweise auch das es entweder haufenweise Spiele gibt wo der Abstand ca 0 ist oder AMD gar schneller ist als Nvidia sonst kann es keinen solchen Durchschnitt geben.

Und ja kann das für sehr sehr wenige Leute wert sein? Ja ich hab auch nur mal 1 Karte raus gepickt ich vermute das mit leicht anderen zahlen die Preisabstände auch bei günstigeren Karten Prozentual zumindest teilweise ähnlich sind, da ist dann oft die Frage kann man überhaupt 4k mit den gewünschten fps spielen selbst mit ausgeschaltetem RT. Die Mehrzahl der heute verfügbaren Grafikkarten lassen bei allen nicht Strategietitel mit 4k viele wünsche übrig besonders wenn wir über 60hz/fps hinaus gehen aber selbst bei 60hz/fps packen das die wenigsten mit RT aktiviert, die meisten Spiele haben kein RT etc. Ich sage nicht das es irgend einem Enthusiast das wert sein kann, ich behaupte nur das selbst Leute die viel Geld für das Hobby übrig haben 300 Euro ein ganz schöner Aufpreis ist. Diese Karten brauchen ja auch ganz ordentlich CPU Power um überhaupt richtig ausgenutzt zu werden, wenn du dann bei der Nvidia Karte 300 Euro bei der CPU sparen musst, hast am Ende entweder bei RT oder bei normaler Leistung sogar weniger Speed, nur wenn man Geld wie heu hat, aber wie du schon sagtest dann spielen auch 500 Euro keine Rolle dann spielen auch 10.000 Euro mehr keine Rolle, für manche stimmt das, für die meisten aber nicht.
Capthowdy schrieb:
Das Feature wird, nach fast zwei Jahren, endlich zum Teil unterstützt.
Wie gesagt mein Einwand war A schön mag für wenige Leute wichtig sein, für die meisten aber nicht. Und wer bei Marktanteile gewinnen will muss ja die meisten Leute überzeugen nicht nur ne kleine Minderheit und das wird man mit VRR Unterstützung von 120fps über hdmi 2.1 bei TV Geräten die kein Freesync unterstützen wohl nicht halten können wenn das das einzige Argument ist. Das einzige was AMD hier falsch gemacht hat, war es zu bewerben, der nicht support als solches halte ich für sehr harmlos, da Nvidia ja auch Adaptive Sync lange und mit Absicht nicht unterstützt hat, was ich als Kunde noch schlimmer finde. Wenn man mir aus Geld gier im Treiber etwas blacklisted.
Capthowdy schrieb:
Ja, wird teilweise nicht so offen diskutiert kann dir daher keine Statistiken oder was nennen aber hier sieht man so das Prinzip das Noten relativ zu den besten und nicht Neutral gegeben wird, meist wird irgend so ne gausche Kurve angelegt soweit ich das verstehe:

https://de.wikihow.com/Die-Notenverteilung-anpassen
Also wenn du in einer Klasse 2 Streben hast die bei ner Arbeit ne 100 haben kriegst diesen 10% Bonus Punkte nicht geschenkt bist in ner Klasse wo die besten auch nicht die hellsten sind kriegst bessere Note.

Wie das bei Endprüfungen genau abläuft, weiß ich nicht ich denk letztlich wird auch ne Kurve angewandt nur halt auf alle Schüler in dem Bundesland, vielleicht über mehrere Jahre hinweg, aber selbst wenn nicht ergibt sich die Gesamtnote meist ja nicht nur aus der Prüfung und die anderen Noten werden so vergeben, also auch deine Abschlussnoten sind zumindest zum Teil nicht vergleichbar. Wie groß der Effekt ist kann ich nicht sagen, aber klar könnte auch sein das Lehrer X wirklich ne schwerere Klassenarbeit gestellt hat als Lehrer Y, von daher kann das auch fair sein, muss aber nicht.

Zurück zum Thema, ich habe den Vergleich gebracht weil der Poster meinte das bei Nvidia immer alles Perfekt läuft, ich habe dazu ein Beispiel gebracht wo nicht alles Perfekt läuft, sicher damals hat Nvidia auch nicht mit Freesync oder Adaptive Sync geworben das wäre ein Gegenargument, aber stecke nicht so drin in Nvidia das die absolut keine Treiberbugs haben und bei jedem Kunden immer alles Perfekt läuft (außerhalb von Hardwaredefekten) halte ich auch für ne steile These wundert das da noch niemand irgendwas genannt hat, muss ich wirklich das Internet durchsuchen nach Treiberbugs von Nvidia?
 
Cool Master schrieb:
Nvidia gewinnt so oder so.
Gut möglich, aber ich denke durch das Knebeln von EVGA und anderer Boardpartner haben sie definitiv weiter (noch) vorhandene Sympathien eingebüsst, aber ob diese dann beim Grafikkartenkauf noch relevant/im Gedächtnis bleiben ist natürlich fraglich.

Im folgenden Video wird unter anderem übrigens über die Ada Lovelace Preise (wenn diese denn von Huang überhaupt bei der Präsentation in 2 Tagen offenbart werden) spekuliert von ca. 700-800 US$ für eine gemunkelte RTX 4080 mit 12GB (AD-104 Chip, also eigentlich eine RTX 4070Ti, die für höhere Profitmargen umgetauft wurde) bis knapp oder leicht über 1000 US$, was natürlich weltfremd anmutet (aber es gibt bestimmt einige Leute, die das für lohnend halten, so dass die Grafikkarten am ersten Tag schnell ausverkaufen werden, egal ob Fonder's Edition oder Custom-Modell).


Da auch hier in der Diskussion AMD/RTG RDNA3 eher stiefmütterlich bedient wird (ja, es ist ein EVGA - nVidia Thread) und AMD/RTG leider noch gar nicht per Marketing irgendwie quergeschossen hat (auf den RDNA3 Marktstart zu warten, weil sich das lohnen könnte), hoffe ich nur, dass die Marketing-Stille bzgl. RDNA3 dGPUs nicht bedeutet, dass die Produkte beim Kunden reifen sollen und die Technik evt. nicht so funzt wie angedacht.

Das Hautpaugenmerk ist bei AMD/RTRG leider auch eher einseitig in den letzten Jahren eher auf den CPUs, mit dem Zen 4 Marktstart zuerst bevorstehend (das wird wohl daran liegen, dass Su aus dem CPU-Bereich kommt und weil dort mehr Marge und Marktanteile bisher zu gewinnen waren).
Nur hoffe ich, dass abseits rühmlicher Ausnahmen (siehe Igor's Lab) auch andere Medienseiten RDNA3 dGPUs mehr in das Blickfeld rücken werden als möglich gute (oder gar bessere) Alternative zu den Ada Lovelace dGPUs von nVidia.

Was ich mir bzgl. dieser Geschichte wünschen würde, dass EVGA sich noch einmal auf das eigene Knowhow im Bereich Grafikkartendesign rückbesinnt und dann bei Intel landet.
EVGA könnte dort die Entwicklung der Arc Grafikkarten bereichern, zumal ich mir gut vorstellen kann, dass Intel aufgrund der Marktstellung da am ehesten faire Vertragsbedingungen und -freiheiten EVGA einräumen wird (und vielleicht nimmt man bei EVGA ja gerne eine neue Herausforderung an und würde sicherlich als unangefochtener Premium-Boardpartner dort eine Ausnahmestellung bekommen).
Das wäre für die Verbraucher die beste Lösung (und wenn eine Intel - EVGA Kooperation Früchte tragen würde für diese natürlich auch).

Netzteile von EVGA sind zwar überdurchschnittlich, aber im Endeffekt würde ich trotzdem eher bei renommierteren/spezialisierteren Herstellern und/oder Anbietern wie Seasonic (wie aktuell), BeQuiet, Superflower, ThermalTake, Silverstone oder auch Corsair landen, so gesehen sehe ich nicht, dass die dGPU-Gewinne schnell von EVGA mit deren Netzteilsparte kompensiert werden können, es sei denn die ATX 3.0 Netzteilmargen sind sehr hoch und es finden sich dafür genügend Käufer.

Falls ich doch unverhofft bei einer nVidia Grafikkarte in nicht allzu ferner Zukunft landen sollte, dann wäre EVGA aber auch kein Thema mehr (auch wegen dem jetzt mittlerweile fragwürdigen Support für eine RTX 3000er Karte bei langer Garantiedauer) und vermutlich wären Gigabyte (Gaming OC), MSI (Gaming X oder Trio) oder Gainward/Palit (Phoenix/Jetstream) die wahrscheinlichste Boardpartner-Wahl für mich.
Bei AMD/RTG liefe es wahrscheinlich eher auf die spezialisierten/exklusiven (nicht zweigleisig fahrenden) Boardpartner wie XFX, Sapphire oder Powercolor hinaus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und Rockstar85
Es ist zwar schade für den Wettbewerb, aber ich hätte mir wahrscheinlich ohnehin keine Grafikkarte mehr von EVGA geholt. Ein Freund und ich haben uns damals zum Release von Cyberpunk eine 3080 FTW3 Ultra Gaming geholt und merkwürdigerweise ging seit dem bei uns beiden das Netzteil drauf. Das könnte auch ein komischer Zufall sein, aber EVGA hatte ja bekanntermaßen auch das ein oder andere Problemchen mit der 3000er Reihe. Da ich auch mit der Lautstärke des Kühlers nicht 100 % zufrieden bin, hatte ich eh vor mit der nächsten Generation entweder zu MSI zurückkehren oder mich Richtung Asus oder Zotac umzusehen.
 
Draco Nobilis schrieb:
Mach dir das nicht zu einfach.
Es ist komplizierter als du dir das gerade denkst.
Die EVGA Designs waren anders, nicht schlechter, sogar besser, bis auf genau einen Randfall. Blöd halt wenn der Randfall dann auftritt. Dafür kann aber EVGA gar nichts. Glaube Igor hatte das mal beleuchtet, bin mir aber gerade nicht ganz sicher. War wohl was wegen New World von Amazon.

Richtig. Wie in meinem Link vermerkt, war das die New World Problematik und natürlich konnte EVGA 100% etwas dazu, weil sie eine Lötstelle verk... haben. Da war nichts "komplizierter" und das Design war auch nicht "anders, nicht schlechter, sogar besser"., sondern das war ein ganz ordinärer Produktionsfehler, der niemals hätte passieren dürfen.

Man muss EVGA immerhin zugute halten, dass sie vernünftigen Support geleistet und alle betroffenen Karten getauscht haben, aber im Grunde hätte es nie dazu kommen dürfen.
Jedenfalls ist es mal mindestens amüsant, wenn der Poster, auf den ich geantwortet hatte, behauptet, dass das nVidia Referenzdesign "Schrott" wäre und in Wirklichkeit der einzige Hersteller mit einer etablierten Historie der "Schrottproduktion" auf den Namen EVGA hört.

Das war die letzten paar Generationen alles nicht berühmt, was EVGA da produziert hat. Die Problematik der in Flammen aufgehenden GTX 1080/1070/1060 hatte ich ja auch verlinkt.
Kein anderer Hersteller hat in den letzten Jahren auch nur ansatzweise so viele Probleme mit Supportaktionen und Rückrufen gehabt. Das ist einfach mal Fakt.
 
  • Gefällt mir
Reaktionen: xexex
FreedomOfSpeech schrieb:
@blackiwid
Mit meinem LG C9 lief Freesync mal mittels Dritthersteller-Software (C.R.U.) bis AMD mit einem Treiberupdate das Freesync freischalten aktiv unterbunden hat.
Gibts da auch nen Grund fuer? Vielleicht die HDMI Concorcium oder TV Hersteller AMD klagen angedroht? Oder was war die begruendung, kann mir nicht vorstellen das AMD nur zum Spaß Kunden schädigen wollte?


FreedomOfSpeech schrieb:
Als sich die Gelegenheit bot eine 3090FE fast ohne Aufpreis im Nachbarort abzuholen, habe ich gewechselt, und es nicht bereut.
Schoen fuer dich, fuer die meisten Nutzer wird das aber nicht zutreffen die werden mit ihrer AMD genauso zufrieden sein wie mit der AMD ausser sie brauchen die 15% RT speed unbedingt koennen sich die schnellsten CPUs und eben hier die 310 Euro Aufpreis leisten.

FreedomOfSpeech schrieb:
Der Aufpreis bei Nvidia ist sicherlich auch der Tatsache geschuldet, dass man die Karte einbaut und alles funzt wie es soll.
Das Statement halte ich eben für ne Lüge Falschaussage, das mag für dich an irgend einem Zeitpunkt gestimmt haben, aber das impliziert das die Treiber niemals Bugs haben und hatten, das jeder der die gekauft hat immer alles Perfekt lief, und ich bin zu Faul nach Nvidia Treiber bugs zu suchen, aber ich würde alles Geld was ich hab drauf verwetten das es dort auch Bugs gab. Du kannst sagen das die nach deiner Einschätzung seltener sind, ok könnte vielleicht stimmen, haben keine Studien oder sowas, aber geschenkt, aber deine Aussage ist eben zu pauschal.
Des weiteren finde ich dieses in die Vergangenheit schauen nicht völlig nutzlos, aber wenn ich heute eine Karte kaufe schau ich zu 90% auf was aktuell Sache ist, ja die Vergangenheit ist dafür EIN Indikator, aber ein anderer wäre wie gut finanziell es einer Firma geht und ob sie GPU Treiber Entwickler einstellt und wie die Marktanteile sich entwickeln und ja für die meisten Menschen ist der Preis auch sehr wichtig, dort tut sich ja einiges positives bei AMD.
Btw kann ich dir ein fuer mich wichtiges Thema nennen wenn wir schon bei Anekdoten sind, der Treibersupport von Nvidia unter Linux ist ne Katastrophe, also auch da laeuft nicht alles "wie es soll", schon hätte ich die Wette gewonnen :D (zugegeben kommt auch auf den Metrik an blender lief schneller gpu beschleunigt, aber bei anderen Dingen suckt Nvidia wayland support war lange ein riesen Problem z.B. aber generell das viele gefummel mit Kernel und das man da aufpassen muss oder mit nem Blackscreen eines tages da steht und der PC nimmer grafisch startet)
 
  • Gefällt mir
Reaktionen: d3nso und edenjung
wern001 schrieb:
Es hat auch andere Hersteller mit New World getroffen. Nur einige Leute die eine EVGA hatten haben am lautesten geschrien.

Das ist faktisch falsch. Es gab bei EVGA ein spezifisches Problem (Lötstelle). Siehe den Link, den ich gepostet habe. EVGA hat dies auch eingeräumt, zugeben müssen und hat entsprechenden Support geleistet.
Andere Hersteller waren nicht betroffen.
 
  • Gefällt mir
Reaktionen: owned139
Zurück
Oben