Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

xexex schrieb:
Also wird man im kommenden Jahr mal 100 hier und mal 50 dort mit den Preisen runter gehen.

Hab ich ja geschrieben das es Anlässe für Rabatte gibt nur leider haste das nicht mit reinzitiert. ;) Es wird aber nicht so sein wie der Kollege eben meinte das ne 2080ti dann für 800€ und ne 2080 für 500€ weggeht sobald alle 1000er weg sind - das ist reines Wunschdenken. Unternehmen reduzieren nur dann Preise wenn es Gründe dafür gibt - und wenn viele schon bei sub 100€ schwach werden und bestellen dann wird auch nichts weiter reduziert. Hängt ganz davon ab wie sehr die Kundschaft es will und bald ist Vorweihnachtszeit - Nvidia weiss das viele da gern ne 2080ti unterm Tannenbaum liegen hätten und die wissen auch ganz genau wie tief viele Leute in die Tasche greifen um ihr Gegenüber glücklich zu machen. ^^
 
  • Gefällt mir
Reaktionen: betzer
DocWindows schrieb:
Und dann alle Regler auf Medium, oder besser alle Regler entfernen, damit die PC Masterrace nicht am Rad dreht? Wäre der Anspruch nur 4k@60fps, dann würde für jeden ne 1080 reichen. Der Anspruch der hier immer formuliert wird ist aber 4k@60fps@max, und das ist das Problem.

Naja. Heißt es nicht "High End"? :king:
 
anexX schrieb:
Hab ich ja geschrieben das es Anlässe für Rabatte gibt nur leider haste das nicht mit reinzitiert

Du hast eine Aussage kritisiert, die durchaus berechtigt war, nur hast du sie auf einen viel zu kurzen Zeitraum runtergerechnet. Ich glaube die wenigsten erwarten noch dieses Jahr ehebliche Preissenkungen und würde gar bezweifeln, dass keine 1080Ti mehr von heute auf morgen produziert werden oder werden können. Es wird solange produziert, solange die Nachfrage nach etwas da ist und die Nachfrage bleibt, wenn die Lager leer sind und die Preise nicht sinken.

Nvidia muss zum Weihnachtsgeschäft nicht nur den Nachrüstmarkt bedienen, es dürfte klar sein, dass vor allem die OEMs zu Weihnachten allesamt die neuen RTX Karten anbieten wollen. Alleine dies wird die Nachfrage und die Preise zunächst mal hoch halten.
 
Zuletzt bearbeitet:
Sinthuria schrieb:
Naja, das ist doch lediglich eine Sache der Namensgebung. Man hätte die 2080 Ti auch einfach 2080 nennen können und aus der 2080 hätte man die 2070 gemacht. Dann wäre der Leistungsprung ziemlich groß gewesen, wenn man das Modell der Vorgängerserie zum Vergleich genommen hätte.
Wenn es ja so einfach wäre, aber das geht schon nicht, allein der Preise wegen, man kann keine RTX 2080 für 1200,00 Euro und keine RTX 2070 für 900,00 Euro verkaufen! Dann wäre nicht nur der Leistungssprung groß, sondern der Preis nochmals höher als wer ja jetzt schon ist.
 
Keine Ahnung wie lange die noch vorhaben die grösseren 1000er Karten zu fertigen - auffällig ist das in den letzten 10 Tagen diverse Abverkäufe von Alternate, MF und diversen Einzelhandelsketten wie MM und Saturn durchgeführt wurden. Das macht man ja eigentlich nicht wenn ein Produkt weiterhin geliefert und verkauft werden soll sondern eigentlich nur dann wenn man es aus dem Angebot entfernen will.
 
  • Gefällt mir
Reaktionen: xexex
Da gebe ich dir allerdings recht. Wobei es sich auch immer die Frage stellt was man abverkauft. Es gibt mittlerweile so viele verschiedene Karten, dass einige schlichtweg Ladenhüter sind und die will man loswerden, weil man sie sonst nie mehr wegbekommt.

Auf der anderen Seite ersetzt eine 2080 zu fast dem gleichen Preis eine 1080Ti, also wofür noch die 1080Ti produzieren statt 100€ mit dem Preis der 2080 herunter zu gehen. Das wäre ziemlicher Blödsinn.
 
  • Gefällt mir
Reaktionen: anexX
xexex schrieb:
Nvidia muss zum Weihnachtsgeschäft nicht nur den Nachrüstmarkt bedienen, es dürfte klar sein, dass vor allem die OEMs zu Weihnachten allesamt die neuen RTX Karten anbieten wollen. Alleine dies wird die Nachfrage und die Preise zunächst mal hoch halten.

Welche OEM's verbauen bitte eine Karte die über der Mittelklasse ist? Die paar Premium-Geräte (Origin und Co.) die es da gibt haben eher geringe Absatzzahlen. Die meisten GPU's in OEM Systemen, wenn sie wirklich als Gaming beworben werden, sind in der Mittelklasse zu finden. Diese besteht momentan aus Einsteiger-1050Ti und Mitteklasse 1060. Dort gibt es keine RTX Karten.

Es ist eher davon auszugehen, dass den OEM's die bisher vorgestellten RTX Karten völlig am Hintern vorbei gehn. (Origin und Co. ausgenommen, aber diese Hersteller sind sowieso recht klein)
 
  • Gefällt mir
Reaktionen: .Sentinel. und russianinvasion
xexex schrieb:
Wann RT zum Erfolg wird entscheiden letztlich die Spieleentwickler. Wenn sie sich durch den Einbau von RT zusätzliche Verkaufszahlen erhoffen, werden sie es implementieren.
RTX macht wahrscheinlich weniger als ein Prozent des Gesamtmarktes (PC und Konsolen) aus. Und von diesem einen Prozent wird widerum nur ein Bruchteil ein Interesse an RT haben. Kein Entwickler wird sich ohne starke Anreize durch Nvidia ein Bein ausreißen, um Raytracing zu implementieren. Da auch die kommende Konsolengeneration Raytracing nicht beherrschen wird, und weil die Technologie noch einige Generation davon entfernt ist, Raytracing auch in der Mittelklasse einzuführen, wird Raytracing noch für einige Jahre eine Technologie-Spielerei in einigen ausgewählten Blockbuster-Titeln bleiben.


xexex schrieb:
Wann RT zum Erfolg wird entscheiden letztlich die Spieleentwickler. Wenn sie sich durch den Einbau von RT zusätzliche Verkaufszahlen erhoffen, werden sie es implementieren.
Und aufgrund der homöopathischen Marktanteile der RTX-Karten werden sie nicht auf höhere Verkaufszahlen hoffen können. Das es überhaupt einige wenige Spiele gibt, die Raytracing verwenden, liegt nur daran, dass Nvidia kräftig nachgeholfen hat.


xexex schrieb:
Du verstehst wenig vor Verkaufsstrategie wenn du so denkst. Die Anzahl der Käufer, die sich eine Karte für 1300€ kauft ist begrenzt, die RT Technik muss aber Kunden haben um breite Unterstützung zu bekommen und Karten in der Leistungsklasse einer 1060 oder 1050 werden kein RT können.
Die aktuelle RTX-Generation müsste allerdings in den Preisregionen der 1060 oder 1050 ankommen, um eine Marktdurchdringung zu erreichen, die Raytracing zum Durchbruch verhelfen kann. Das wird nicht in dieser, und wahrscheinlich auch nicht in der nächsten Generation geschehen. Und selbst wenn es geschieht, besteht noch immer das Problem, dass Konsolenspieler sicher bis 2025 nichts mit Raytracing zu tun haben werden.


xexex schrieb:
Wenn Nvidia will und sieht RT kommt nicht richtig ins rollen, landen die Preise ganz schnell bei 700€.
Und selbst das wäre noch zu teuer. Hast du mitgekriegt, dass sich das Preisniveau über die vergangenen drei Generationen nach und nach um einige hundert Euro nach oben verschoben hat? Die 80er-Serie waren mal €500-Karten. Die GTX 970 ist einst bei 350 Euro eingestiegen. Die RTX 2080 kostet vom Start weg 300 Euro mehr als die GTX 980 vor vier Jahren (jeweils Preisempfehlung). Das hat nicht nur etwas mit Angebot und Nachfrage zu tun, und auch nicht mit der Größe der Chips. Nvidia hat über die vergangenen Jahre immer höhere Preise etabliert, und die Kunden haben es gefressen und sich eingeredet, dass das schon irgendwie gerechtfertigt ist.

Natürlich werden die Preise irgendwann sinken, aber nur gaaaanz langsam. Wenn du glaubst, dass die RTX 2080 (Ti) binnen zwölf oder achtzehn Monaten einfach mal 300 Euro günstiger wird (und eine Marktdurchdringung erreicht, die Spielerentwickler motiveren wird, für diese Nische zu entwickeln), dann bist du naiv. Das ist schon mit der GTX 1080 nicht geschehen, die seit der Markteinführung vor fast zweianhalb Jahren nur knap 75 Euro günstiger geworden ist. Bevor Nvidia die Preise kräftig nach unten korrigiert, wird neue Modelle der RTX geben (mit sorgfältig ausgewählten minderwertigen Chips), die das Portfolio auffüllen werden.
 
  • Gefällt mir
Reaktionen: Iscaran
Aldaric87 schrieb:
Welche OEM's verbauen bitte eine Karte die über der Mittelklasse ist?

Gesamte Spielereihen wie HP omen, Dell Alienware, Asus ROG, Acer Predator aber logischerweise auch Marken wie Medion haben und werden weiterhin High-End Grafikkarten verbauen.

Es befinden sich derzeit 8 Systeme mit NVidia Turing bei Geizhals und 623 Systeme mit NVidia Pascal, davon 48 mit 1080Ti und 72 mit 1080. Das ist kein Riesenanteil, aber es ist fast jeder Hersteller mit mehreren Geräten vertreten.

Glaubst du wirklich die Masse versorgt sich im Nachrüstmarkt? Das Forum hier ist eine Insel, die nur schlecht mit der "Realität" zu vergleichen ist.
Ergänzung ()

sverebom schrieb:
Wenn du glaubst, dass die RTX 2080 (Ti) binnen zwölf oder achtzehn Monaten einfach mal 300 Euro günstiger wird (und eine Marktdurchdringung erreicht, die Spielerentwickler motiveren wird, für diese Nische zu entwickeln), dann bist du naiv.

Und ich gehe jede wette mit dir ein, dass es spätestens nach dem diesjährigen Weihnachtsgeschäft der Fall sein wird. Wir werden sehen. So sieht auf jeden Fall eine normale Preisentwicklung bei Grafikkarten, wenn sie nicht durch Mining beeinflusst wird:
https://geizhals.de/palit-geforce-gtx-980-jetstream-ne5x980014g2j-a1186788.html

Vor allem die aktuellen Preise haben noch kaum einen Wert solange sie noch nicht mal alle offiziell verfügbar sind.
 
Zuletzt bearbeitet:
McLovin14 schrieb:
Ich hoffe mal, das ist ein Troll ;)
Silizium ist das häufigste Element in der Erdkruste, das geht so schnell nicht zur Neige... Was du vielleicht meinst ist Lithium. Das ist wahrhaftig etwas selten, hat aber mit Halbleitertechnologie nicht direkt was zu tun.

nunja mittlerweile liegt der jährliche verbrauch an sand bei etwa 15 milliarden tonnen. dummerweise ist sand nicht gleich sand und so sind grosse teile der weltweiten vorkommen erst gar nicht für industrielle zwecke nutzbar.
 
Ich wunder mich, warum ihr euch nicht über die Preise der Quadro Karten aufregt.

Für die Zielgruppe bis 600 Euro hat Nvidia einfach noch nicht die Hardware (2070) released.
 
RTX und DLSS sind klare Innovationsaussagen der Spieleentwickler - die Titel werden sich alleine deswegen besser verkaufen weil der Großteil der Spieler dann sagen das es ein modernes cooles Spiel ist, selbst wenn Sie die Hardware dafür noch nicht haben. In den nächsten Monaten werden einige 100.000 Stück der RTX über die Ladentheke gehen und von den Käufern werden sich viele die entsprechenden Spiele kaufen - was dann auch nochmal ein Absatzplus ist. Dazu können die Spieleentwickler auch die Kartenhersteller beliefern, die dann Ihre Karten mit Spielebundles die RT unterstützen attraktiver im Markt verkaufen können. Hinzu kommt der Hypefaktor für die Entwickler, RT/DLSS ist ein heftiger Technologiesprung der nicht mit kleineren verbesserungen der letzten Jahre zu vergleichen ist. Es ist zu erwarten das Nvidia die kommenden Generationen hinsichtlich RT weiter verbessern wird und dann altern die Spiele mit RT auch besser.

Ohne Konkurrenz wird die RTX 2080TI auch nicht mehr deutlich im Preis die nächsten Monate sinken. Gibt genug zocker über 30 die zur Gehaltsgruppe 20%+ gehören die sich sowas leisten können.

(Oder welche die es sich Mühsam erspart haben aber wegen 500,- mehr nicht nochmal 2 Jahren warten wollen)
 
sverebom schrieb:
Kein Entwickler wird sich ohne starke Anreize durch Nvidia ein Bein ausreißen, um Raytracing zu implementieren.
Wie im Technik Diskussionsthread bereits angemerkt, ist DXR/Raytracing bei den großen Engines bereits implementiert bzw. es wird dran gearbeitet. Das ist schon die halbe Miete. Wenn dann noch mesh- shading bzw. primitive shaders unterstützt werden, so fällt ein ERHEBLICHER Teil der Sorgen und der Arbeit, die ein Entwickler mit der Engine hat unter den Tisch.
Man braucht kein aufwendiges Beleuchtungs/AO/Verschattungssystem mehr, keine Lightprobes,voxalisation contact hardening shadows, fake lights und und und.
Man kann auch das Generieren von LODs vollends auf die GPU auslagern und es werden KEINE Transitions unterschiedlicher Qualitätsstufen von Modellen (Fern->Nah) mehr sichtbar.
man braucht keine X- Zusatzbibliotheken (Umbra etc.), die sich um diese Angelegenheiten kümmern.

Das sind die Bereiche, die aus technischen Gesichtspunkten 99% der Arbeit bei Erstellen eines Spiels darstellen.
Und das würde durch Einsatz der neuen Techniken einfach wegfallen.
Es werden also GERADE die Entwickler und Hersteller sein, die ein großes Interesse haben, dass sich das neue Zeug durchsetzt.

Und aufgrund der homöopathischen Marktanteile der RTX-Karten werden sie nicht auf höhere Verkaufszahlen hoffen können. Das es überhaupt einige wenige Spiele gibt, die Raytracing verwenden, liegt nur daran, dass Nvidia kräftig nachgeholfen hat.
Das ist richtig, wobei ich aus Sicht der Entwickler schon denke, dass sie den Einsatz der neuen Funktionen aufgrund der in Zukunft winkenden Arbeits- und Kostenersparnis (wohlgemerkt bei deutlich gesteigerter Grafikqualität) versuchen werden, die neuen Möglichkeiten zu fördern. (siehe oben)


Die aktuelle RTX-Generation müsste allerdings in den Preisregionen der 1060 oder 1050 ankommen, um eine Marktdurchdringung zu erreichen, die Raytracing zum Durchbruch verhelfen kann. Das wird nicht in dieser, und wahrscheinlich auch nicht in der nächsten Generation geschehen. Und selbst wenn es geschieht, besteht noch immer das Problem, dass Konsolenspieler sicher bis 2025 nichts mit Raytracing zu tun haben werden.
Das ist natürlich richtig, dass sich RTX oder RT im Allgemeinen noch beweisen und preislich attraktiv sein muss. Jedoch denke ich, dass nach der Anfangshürde der Neuentwicklung einer Architektur die steigerung der Geschwindigkeit gerade bei RT ein Kinderspiel ist.
Durch die quasi zu 100% möglichen Skalierung von RT (letztenendes kann man hinter jedes Pixel einen RT- Kern setzen, OHNE gegen eine Effizienzmauer zu fahren) kann man nun wieder Generation für Generation die RT Kerne einfach verdoppeln und erhält sofort linear dazu entsprechende Geschwindigkeitssteigerungen.

Somit hat man sich mit dieser Generation wieder den Raum geschaffen, drastische Leistungssteigerungen hinzulegen, was aufgrund der Probleme, die heutzutage schon massiv in erscheinung treten in der Fertigungstechnik (Strukturgrößen) und den Grenzen, die die Rasterisierung inzwischen aufzeigt, ein genialer Schachzug ist.

Und selbst das wäre noch zu teuer. Hast du mitgekriegt, dass sich das Preisniveau über die vergangenen drei Generationen nach und nach um einige hundert Euro nach oben verschoben hat? Die 80er-Serie waren mal €500-Karten. Die GTX 970 ist einst bei 350 Euro eingestiegen. Die RTX 2080 kostet vom Start weg 300 Euro mehr als die GTX 980 vor vier Jahren (jeweils Preisempfehlung). Das hat nicht nur etwas mit Angebot und Nachfrage zu tun, und auch nicht mit der Größe der Chips. Nvidia hat über die vergangenen Jahre immer höhere Preise etabliert, und die Kunden haben es gefressen und sich eingeredet, dass das schon irgendwie gerechtfertigt ist.
Inflatiosausgleich/Steigende Kosten in R&D/Steigende Kosten Fertigung, Mitarbeiter, Energiekosten.
Mit Wachstum der Firma höhere Verpflichtungen gegenüber Investoren, Aktionären.
Für nachhaltiges Wirtschaften und zur Sicherung der Firma muss der Eigenkapitalanteil und die Kriegskasse prozentual größer gefüllt sein. Natürlich will man zudem mehr verdienen, wo es möglich ist.
Preise steigen nunmal im Normalfall... Alles wird teurer.

Natürlich werden die Preise irgendwann sinken, aber nur gaaaanz langsam. Wenn du glaubst, dass die RTX 2080 (Ti) binnen zwölf oder achtzehn Monaten einfach mal 300 Euro günstiger wird (und eine Marktdurchdringung erreicht, die Spielerentwickler motiveren wird, für diese Nische zu entwickeln), dann bist du naiv.
Ich sehe, wenn ich mir die Handelslisten anschaue schon eine Möglichkeit, dass sich die Dinger auf knapp unter 1000,-€ (ist beim Käufer eine psychologische Grenze) einpendeln könnten.
Wie lange das dauert - Keine Ahnung.

Das ist schon mit der GTX 1080 nicht geschehen, die seit der Markteinführung vor fast zweianhalb Jahren nur knap 75 Euro günstiger geworden ist. Bevor Nvidia die Preise kräftig nach unten korrigiert, wird neue Modelle der RTX geben (mit sorgfältig ausgewählten minderwertigen Chips), die das Portfolio auffüllen werden.
Wenn die Nachfrage explodiert, werden die Preise nicht sinken. Die Grafikkartenhersteller sind ja lange zeit mit der Produktion nicht nachgekommen und die regale waren über Monate leer.

Güße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Palatas und Tock
acc schrieb:
nunja mittlerweile liegt der jährliche verbrauch an sand bei etwa 15 milliarden tonnen. dummerweise ist sand nicht gleich sand und so sind grosse teile der weltweiten vorkommen erst gar nicht für industrielle zwecke nutzbar.

Das würde mich näher interessieren. Warum ist mancher Sand nicht nutzbar? Im Herstellungsprozess für Silizium-Einkristalle müssen so oder so aufwändige Reinigungsverfahren durchgeführt werden, um eine Verunreinigung kleiner als 10^(-9) % zu erreichen. Inwiefern ist mancher Sand dann nicht nutzbar?
 
Loeblich herausgestellt von CB :) und erstaunlich, dass nVidia mit Turing massiv daran geschraubt hat die Compute-Leistung mit den RTX Karten zu steigern.

Wenn also nicht Computerspiele im Vordergrund stehen und man auf viel Compute-Leistung angewiesen ist, dann koennte man deswegen den Kauf einer RTX in Erwaegung ziehen, weil dort/in dem Bereich jetzt wesentlich mehr als mit den Maxwell-/Pascal GPU-Generationen geboten wird.

Nur ist die unruehmliche Speichermengenstagnation bei den neuen RTX Karten damit immer noch nicht vom Tisch.

...Artikel zum Wochenende um Informationen zur Asus GeForce RTX 2080 Ti Strix OC sowie zur Gigabyte GeForce RTX 2080 Gaming OC erweitert, die beide mittlerweile in der Redaktion eingetroffen sind. Darüber hinaus wurden Benchmarks auf Basis des TensorFlow-Frameworks, das vielen Deep-Learning-Anwendungen als Backend dient, ergänzt.

Na ja gut, auch noch Benchmarks als nur Informationen waeren dann vielleicht auch fuer die neuen Boardpartner-Custom-RTX-Modelle sinnvoll(er) gewesen ;)?

Also die TensorFlow Benchmarks duerften meiner Einschaetzung nach hier wohl weniger Leute (Early Adopter, Hobby-Enthusiasten und/oder HardCore-nVidianer, die aktuell wohl nur die Zielgruppe fuer die RTX-Karten darstellen) interessieren als wie die RTX Karten in einem VR-Benchmark (im Vergleich zur GTX 1080Ti) abschneiden und viel ist bei den TensorFlow Benchmarks (auch wegen CUDA 9) noch nicht herum gekommen.
 
xexex schrieb:
AMD hat im Moment gar nichts mitzureden und sind wenn man sich die Statistiken bei Steam anschaut fast komplett abgemeldet. Das mag hier im Forum anders aussehen, aber in der Realität spielt außerhalb der Konsolen AMD kaum noch eine Rolle.

Immerhin hat AMD sich von einem Tief mit 27% in Q3 2017 wieder auf 36% Marktanteil bei diskreten Grafikarten hochgearbeitet - hoffen wir, das sie es über 40% schaffen, damit es einen annähernd gesunden Wettbewerb gibt.
https://www.3dcenter.org/news/reloa...ikkarten-marktanteile-im-zweiten-quartal-2018
 
  • Gefällt mir
Reaktionen: betzer
soo 2080 XC Stepup gestartet. Bin mal gespannt ob ich dieses Jahr noch bedient werde :D
 
xexex schrieb:
Wirklich? Es gibt Leute die Spielen diverse Spiele auch mal 5 mal durch auf verschiedenen Schwierigkeitsgraden ODER weil sie eine neue Grafikkarte kaufen und endlich mal alle Regler nach rechts drehen können. Nicht jeder spielt etwas einmal durch und wirft es ...

Deshalb warte ich bis der Raytracing Patch für Tomb Raider kommt und kaufs mir erst dann ;-)
 
  • Gefällt mir
Reaktionen: xexex
Heise: Die 850 Euro teure GeForce RTX 2080 ist in vielen Spielen nicht spürbar schneller als die über ein Jahr alte GeForce GTX 1080 Ti. Diese kostete zum Marktstart 820 Euro und bot sogar mehr Speicher und eine höhere Transferrate. Die 1260 Euro teure GeForce RTX 2080 Ti bringt im Schnitt eine um 35 Prozent höhere 3D-Leistung als die 1080 Ti – kostet aber 50 Prozent mehr. Im Vergleich zum aktuellen Straßenpreis der 1080 Ti ist die 2080 Ti sogar 80 Prozent teurer.

Schlicht eine überteuerte Lachnummer.
 
  • Gefällt mir
Reaktionen: Birke1511
McLovin14 schrieb:
Das würde mich näher interessieren. Warum ist mancher Sand nicht nutzbar?

Ich kenne es nur so. Mann das viele Sand der Wüsten nicht im Baugewerbe nutzen, weil die Körner rund sind. Wieso man diesen Sand allerdings nicht sollte einschmelzen können, ist mir auch ein Rätsel.

Esenel schrieb:
Deshalb warte ich bis der Raytracing Patch für Tomb Raider kommt und kaufs mir erst dann ;-)

Es macht sowieso Sinn erst Patches und DLCs abzuwarten und dann etwas zu kaufen, so mache ich es schon seit Jahren. Zudem spart man noch einen Haufen Geld. Einzig bei Multiplayerspielen geht es natürlich nicht auf.

Norebo schrieb:
Immerhin hat AMD sich von einem Tief mit 27% in Q3 2017 wieder auf 36% Marktanteil bei diskreten Grafikarten hochgearbeitet

Deine Zahlen sind nicht nur unrealistisch, sondern spiegeln auch nicht ansatzweise die tatsächliche Marktverbreitung wieder. Laut Steam ist AMD nur noch ein kleiner Fisch:
1537602548503.png

Immerhin verlieren sie anscheinend im Moment keine Marktanteile mehr.... Beim Umsatz sieht es ebenfalls ähnlich aus.

Ein Blick in die Aufschlüsselung (PDF) zeigt, dass der Geforce-Bereich statt 1,186 Milliarden US-Dollar satte 1,805 Milliarden US-Dollar umsetzte. Das ist mehr, als Konkurrent AMD mit allen Sparten zusammen im zweiten Quartal 2018 erwirtschaften konnte. Noch beeindruckender als das 52-Prozent-Wachstum bei Gaming durch die mittlerweile zwei Jahre alten Pascal-basierten Grafikkarten sind die 85 Prozent bei Datenzentren, dort legte Nvidia dank der Volta-Teslas um 85 Prozent auf 760 Millionen US-Dollar zu.
https://www.golem.de/news/quartalsz...ehr-umsatz-im-gaming-segment-1808-136051.html

Ryzen bringts: Auf diese knappe Formel lässt sich der Erfolg der Firma AMD unter CEO Lisa Su reduzieren. Die im März 2017 eingeführte und anschließend kontinuierlich erweiterte und überarbeitete Prozessorfamilie Ryzen brachte auch im abgelaufenen 2. Quartal 2018 den Löwenanteil an Umsatz und Gewinn ein. Laut AMD-Finanzchef Devinder Kumar sorgten Ryzen-Chips für rund 60 Prozent der Umsätze der (Client-)Sparte "Computing and Graphics", die restlichen 40 Prozent entfielen auf ältere Prozessoren sowie Radeon-Grafikkarten.
https://www.heise.de/newsticker/meldung/AMD-verdient-116-Millionen-US-Dollar-4120812.html

Das Umsatzplus von 53 Prozent hat AMD vor allem einer hohen Nachfrage nach seinen Desktop-CPUs und Grafikchips zu verdanken. Die Sparte Computing und Graphics verbesserte ihr Ergebnis um 64 Prozent auf 1,09 Milliarden Dollar. Während der Durchschnittspreis für Desktop-Prozessoren rückläufig war, erhöhte er sich für Grafikchips. Ihr operatives Ergebnis verbesserte die Sparte von 7 auf 117 Millionen Dollar.
https://www.zdnet.de/88338801/amd-steigert-umsatz-um-53-prozent-im-zweiten-quartal

Also hat alleine im letzten Quartal Nvidia nur mit Geforce 1,8Mrd umgesetzt, im Vergleich dazu hat AMD mit ihren Grafikkarten weniger als 0,4Mrd umgesetzt (genaue Zahl unbekannt). Das spiegelt auch den ungefähren Marktanteil wieder.
 
Zuletzt bearbeitet:
Zurück
Oben