News Quartalsbericht: Nvidia macht massiven Umsatz- und Gewinnsprung

pipip schrieb:
Zock
https://www.pcgameshardware.de/Graf...2-Chip-ueber-500-mm-Tape-Out-erfolgt-1340242/

Letzten Gerüchten laut Taiwan Digitimes (berichten oft über TSMC), sollen 7nm Produkte von NV und AMD im September kommen. Natürlich Gerücht und immer mit Vorsicht zu entnehmen. August-Oktober wurde aber schon öfters für die neuen NV, AMD CPUs und GPUs erwähnt. Bei NV könnte das auch Sinn machen, wenn man den daran glaubt, dass die Tape Out der Gaming Chips erst vor paar/ein Monate passiert sind.
Es steht aber auch schon fest, das nur Profi Chips und evtl. Die 3080ti in 7nm von TSCM kommt. Alles andere von Samsung in 8 nm, was 10 nm bei TSCM entspricht.
Nicht weil Nvidia 7 nm nicht wollte, es waren schlicht keine Kapazitäten mehr frei. Nvidia hat zu sehr gepokert mit TSCM, um Kosten zu drücken. Hat diesmal nicht geklappt.
Ein Chip wurde sogar gestrichen/verschoben laut Insider Berichten. Weil er nicht schneller als die 2080ti war. Der GA 103 Chip.

https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1617-mai-2020
 
@trane87

Ja so "hervorragend" dass das Problem beim Kunden aufflog und es dennoch für nvidia keinerlei Konsequenzen gab. ;)
Die sahen sich ja noch nicht einmal genötigt die Karten zurück zu nehmen oder die Kundschaft dafür zu entschädigen. Das machten ausschließlich die Händler.

Bulletchief schrieb:
Nur viel Speicher und Effizienz bringt halt nichts wenn die Peripherie plötzlich nach Rohleistung verlangt - > Stichwort 4K.
Lustige Argumentation denn nur allso oft hatte 4k nicht wegen der Rohleistung sondern wegen Speichermangel versagt. ;)
An der Stelle kommt bei den Diskussionen wieder die Argumentation mit reduzierten Details die Speicher sparen aber warum soll man bei der Preisklasse um die es geht deswegen Details reduzieren anstatt den Hersteller in die Pflicht zu nehmen ausreichend Grafikspeicher zu liefern? Der wurde ja beim letzten Generationswechsel bei der gleichen Leistungsklasse sogar weiter reduziert.

Wie gesagt, die Kundschaft will keine Konkurrenz. Was die wollen ist ein Preisdrücker und dafür verbrennt kein Hersteller sinnlos Geld.
 
  • Gefällt mir
Reaktionen: LamaTux, AMDPower, Alexander2 und eine weitere Person
Nvidia hat eben früh erkannt, wo es die nächsten Jahre richtig abgeht und wo die fetten Gewinne zu erzielen sind: Datacenter und DL/ML/AI.

Dazu braucht man eben mehr als nur einen "guten Grafikchip", sondern da wird eben auch Wert auf ein entsprechendes Öko-System und Entwicklersupport gelegt, was man mit CuDA/CuDNN sich die letzten Jahre aufbauen konnte. Mit der Entwicklung von NVLink/NVSwitch und den Teslas im SXM-Format hat man zudem auch noch einen leistungsfähigen Onboard-Interconnect geschaffen und mit Mellanox holt man sich jetzt auch den Quasi-Marktführer für Highspeed-Netzwerkchips (IB / Ethernet) ins Haus.

Mit der neuen Generation an SmartNICs wird es zudem irgendwann möglich sein, GPU-Cluster ohne Host-CPUs aufzubauen.
 
  • Gefällt mir
Reaktionen: Affe007
Wadenbeisser schrieb:
@trane87

Ja so "hervorragend" dass das Problem beim Kunden aufflog und es dennoch für nvidia keinerlei Konsequenzen gab. ;)
Die sahen sich ja noch nicht einmal genötigt die Karten zurück zu nehmen oder die Kundschaft dafür zu entschädigen. Das machten ausschließlich die Händler.


Lustige Argumentation denn nur allso oft hatte 4k nicht wegen der Rohleistung sondern wegen Speichermangel versagt. ;)
An der Stelle kommt bei den Diskussionen wieder die Argumentation mit reduzierten Details die Speicher sparen aber warum soll man bei der Preisklasse um die es geht deswegen Details reduzieren anstatt den Hersteller in die Pflicht zu nehmen ausreichend Grafikspeicher zu liefern? Der wurde ja beim letzten Generationswechsel bei der gleichen Leistungsklasse sogar weiter reduziert.

Wie gesagt, die Kundschaft will keine Konkurrenz. Was die wollen ist ein Preisdrücker und dafür verbrennt kein Hersteller sinnlos Geld.

Ist mir durchaus bewusst. Bei der 290x haben ja auch hauptsächlich die 4Gb Speicher limitiert. 2014 wohlgemerkt. Es ist 2020 und die 3 Jahre alten 11Gb die ich habe reichen dicke aus - da ist es mir egal ob ne Karte mit 24Gb kommt, wenn die Rohleistung nicht besser wird.
Aber ich glaube die Standpunkte sind klar, agree to disagree 😉.
 
Das tolle für AMD ist doch das die neuen Datacenter GPUs von NVIDIA nur zusammen mit AMD Servern CPUs verbaut werden sollten. Das wird AMD pushen. Ich habe selber mal viel mit CUDA programmiert und ich kann es sagen es geht nichts über mehr Bandbreite von PCIe Bus. Das Progrem war immer das die Datenübertragung 4ms benötigt hat und die Auswertung der Daten 1 bis 2ms. Dann müssen die Ergebnisse wieder zurück in den CPU RAM das dauerte dann auch noch mal 3 bis 4ms. Durch die Verdopplung der Bandbreite durch PCIe 4.0 muss ich nichts am Code ändern und die Porformance wird deutlich besser. Selbst wenn die neue GPU die Daten doppelt so schnell berechnen kann. würde ich die Bearbeitungszeit von 2ms auf 1ms reduzieren. Jedoch 3 bis 4ms kann ich einsparren durch den neuen PCIe 4.0 Standard. Das hat auch NVIDA erkannt und setzt somit auf EPYC Server. Zudem sind die CPUs auch deutlich moderner. Und so wie es aussieht wird das auch noch für eine ganze Zeit so bleiben. Das ist auch im Desktop Bereich so. Wer professionelle Datenverarbeitung am PC macht benötigt PCIe 4.0. Auch die SSD werden dabei noch mal schneller, wenn man z.B. ein 4k Video bearbeitet ist das ein recht großer Datenstream der von der SSD geladen wird und auch wieder geschrieben wird.
 
  • Gefällt mir
Reaktionen: Poati, Colindo, Celinna und eine weitere Person
Ich frage mich, wieso die Leute gerade wie blöd Grafikkarten kaufen? Gut Corona Homing, ist bestimmt ein Grund, aber aktuell ist es doch eher ein schlechter Zeitpunkt. Zumal ja so viele so wenig Geld haben (Kurzarbeit, Arbeitslosigkeit etc.) Da wartet man doch eher auf die neuen Modelle bzw. bis wieder mehr Sicherheit da ist? Auf der anderen Seite, wer weiß wenn das so weiter geht, verschieben sich die Karten weiter und nvidia macht Steigerungen mit altem Krempel. Naja ich habe mich so langsam damit abgefunden, dass ich meine Daddelkiste noch weiterquäle. :(
 
Teralios schrieb:
Auch wenn ich die Preise nicht Okay finden, muss man aber sagen, dass Kapitalismus eben genau so funktioniert.
Für so etwas gibt es das Kartellrecht. Damit Unternehmen keine marktbeherrschende Position einnehmen und ausnutzen. Und früher haben insbesondere die USA auch gerne mal richtig hingelangt.

Leider muss man sagen, dass die US-Justiz wahrscheinlich seit dem damals gescheiterten Microsoft-Verfahren ein wenig die Zähne gezogen wurden. Die Amis haben halt im Rahmen der Globalisierung erkannt, dass man seine nationalen Champions nicht kleinmachen sollte, während in anderen Regionen riesige Unternehmen heranwachsen.

Aber es gab ja immer mal wieder Anläufe wie damals bei Intel oder ganz aktuell Google. Und Trump mag angeblich Amazon nicht. ;)
 
Smartin schrieb:
Gut Corona Homing, ist bestimmt ein Grund, aber aktuell ist es doch eher ein schlechter Zeitpunkt. Zumal ja so viele so wenig Geld haben (Kurzarbeit, Arbeitslosigkeit etc.)

Wir reden hier nicht von fünfstelligen Beträgen, sondern meist von dreistelligen. Für die meisten ist jeglicher Urlaub, Konzerte, und auch sonst jegliches öffentliches Leben ausgeblieben. Ich hätte dieses Jahr schon bestimmt das vierfache einer Grafikkarte versoffen, verfressen und verfeiert, wenn es die Möglichkeiten dazu gegeben hätte. Also sitzen viele auf Geld herum und hängen zuhause ab, da liegt die Anschaffung neuer Hardware eigentlich nahe,
 
  • Gefällt mir
Reaktionen: PS828
Zock schrieb:
Ich habe das Gefühl von AMD wird einfach nichts kommen nicht mal ansatzweise, es ist zu ruhig keine Leaks keine Tape Outs nichts da kommt kein großer Chip.



The first half of a year has been usually the slow season for graphics cards, but this year the coronavirus pandemic-triggeed stay-at-home needs has shored up demand. With AMD and Nvidia set to launch their next-generation GPUs in September, graphics cards vendors are expected to cut prices for older-generation products, stimulating demand further in third-quarter 2020.​

(Quelle: Digitimes Newsletter)
 
Ich verstehe nixht warum es unverständlich sein soll wenn Leute 1200 Euro für ne Grafikkarte ausgeben.

Es ist das schnellste Modell, spricht also primär Enthusiasten an.
Wenn das dann auch noch das Primär Hobby ist ist das für viele nicht all zu viel Geld.

Andere versaufen auch jedes Wochenende 100 Euro oder geben Hunderter für Fußballspiele oder Merchandise aus...
 
  • Gefällt mir
Reaktionen: Affe007
Bin mir nicht mehr 100% sicher aber glaub meine GTX 970 hatte 350€ gekostet. Die RTX 2070 Super kostet zwischen 500-700€.

500-700€ für die Mittelklasse!!!

Gab es in den letzten 6 Jahren eine Inflation über insgesamt 100% die an mir vorbei gegangen ist?

Die Leute akzeptieren wie Lemminge das jede Generation mehr kosten darf weil die Leistung steigt. Hoffentlich kostet die 3080 soviel wie die aktuelle Ti. Sollen die mal schön zahlen.

Nvidia und Intel sehen von mir nie wieder einen Cent. Und wenn es irgendwann keine Konkurrenz geben sollte kauf ich deren Krempel nur noch gebraucht.
 
  • Gefällt mir
Reaktionen: Papabär, Nureinnickname!, TIMOTOX und 5 andere
Teralios schrieb:
Es gibt genug Leute, die 800 € und ebenso die 1200 € oder waren es 1400 € zahlen und entsprechend kann nVidia hier auch die Spanne verlangen.
Das mag zwar ärgerlich sein, aber so ist eben das Leben.
Das ist absolut Richtig, ich kann mir auch keinen Bugatti Chiron leisten und rege mich im Nachhinein über den hohen Preis auf.
Dennoch finde ich gerade in solchen Foren die Menschen unangebracht, die sich über die Grakapreise negativ auslassen und trotzdem ein Highend-Produkt in der Signatur stehen haben. Meckern und die Preispolitik trotzdem zu unterstützen schließen sich aus meiner Sicht aus.

Allein wegen P/L habe ich mir ein "rotes" System aufgebaut, denn Fanboygehabe schadet nur dem Geldbeutel.
 
  • Gefällt mir
Reaktionen: Affe007 und fox40phil
Wadenbeisser schrieb:
Durch die Versteifung des professionellen Segments auf CUDA ist es für andere Hersteller nagezu unmöglich dort zu konkurrieren und keiner ist gezwungen die Preise im Desktop Seglent zu zahlen. Würden die User die Preissteigerungen nicht mitmachen oder bei der Suche nicht schons eit Jahren mit Scheuklappen durch die Gegend rennen würden würde sich das Problem recht schnell von selbst erledigen. Nicht vergessen, AMD hatte die Entwicklung größerer GPUs erst auf sparflamme gestellt nachdem absehbar war das sie sich für sie nicht rentieren.
Mit anderen Worten ein hausgemachtes Problem der Userschaft.

Ich sage es mal so, was du ansprichst wollen die meisten User nicht sehen. Das ist jetzt aber nicht unbedingt nur auf den Grafikkartenmarkt beschraenkt, sondern allgemein. Die Konsequenzen seiner Handlungen abschaetzen koennen nur die wenigsten, es ist viel einfacher wenn jemand anderes Schuld ist. Mittlerweile kann man diesen Usern aber nur noch sagen, ihr seid selbst Schuld, zahlt die Preise und haltet die Klappe. Ihr habt euer Recht auf Beschweren verloren.

Allerdings ist das mit CUDA echt so eine Sache. So gut wie jedes Machine Learning Framework setzt auf CUDA. AMD hat zwar ROCm, aber das ist meist nicht integriert, oder AMD muss den Fork selbst pflegen wie bei TensorFlow. AMD geht sogar so weit einen Transpiler zu entwickeln, der CUDA uebersetzt, damit es auch auf AMD Karten laeuft. Als ich mir vor 3 Jahren eine Karte kaufen wollte war klar, dass ich mit Machine Learning experimentieren wollte. Zu dem Zeitpunkt war es ein 'AMD? Viel Glueck'. Das hat sich mittlerweile minimal gebessert. Es gibt zumindest PlaidML, das wohl auch ganz gut auf AMD laeuft. Was halt schade ist, Phoronix hat mit der Vega VII den Aufwand betrieben und getestet, die Ergebnisse waren teilweise richtig heftig und lagen zwischen 2080 und 2080ti, teilweise sogar ueber der 2080ti. 2017 habe ich dann auch eine 1080ti gekauft, weil es komplettes Glueckspiel gewesen waere mit AMD Machine Learning zu probieren. Meine naechste wird AMD, zum einen weil sich die Situation etwas gebessert hat, und zum anderen weil ich meine 1080ti in mein NAS stecken kann und das zum experimentieren nutzen kann. In Sachen Software fuer GPU Compute muss AMD den Arsch etwas hochbekommen. Sie versuchen es schon seit Jahren in TensorFlow, aber da ist echt wenig Fortschritt. Da kann ich Kritik verstehen, im Gaming ueberhaupt nicht.
 
Gewinn auch im Gamingbereich. OK, hätte ich nicht erwartet das solche Preise ohne zu Meckern akzeptiert werden.

Dann hoffen wir mal das die 3080 TI oder wie auch immer Minimum 2000 Euro kostet und der Nachfolger der 2080 1200 Euro. Momentan sind wir ja bei Highend zwischen 1100 und 1600 Euro umeinander je nach Karte. Ausnahme-karten kosten auch mal mehr. Die neuen Karten sind ja dann wieder schneller, also muss man auch wieder mehr verlangen... :evillol:

Bin gespannt wie viele das dann noch mit machen würden und wo die Schmerzgrenze liegt...

Schade, hatte gehofft das es auch mal wieder in die bessere Richtung geht, aber mit Gewinn wird das Nvidia nicht tun.
 
Blumentopf1989 schrieb:
Meine GTX 280 hat damals um die 500€ gekostet und war das Beste was man bekommen konnte. Heute zahlt man einfach mal mehr als das Doppelte :D

Unter den Tisch fällt dabei das Hardware in US Dollar gehandelt wird und der Euro in Relation nie mehr wert war als um 2008. Auch 2011 gab es nochmal eine Spitze Richtung 1,40. Das hat beispielsweise Intels 2500k bei uns erst so richtig zum Schnäppchen gemacht. Heute bewegen wir uns bei 1,10. Oben drauf zu heute natürlich noch ca. 9% Inflation auf den damaligen Kaufpreis. Die GTX 280 würde heute bei um die 750€ liegen.

Im übrigen ist die GTX 280 mit GT200 (576mm², 65nm) im Segment der RTX 2080 (TU104, 545mm², 12nm) zuhause. Die RTX 2080 TI (TU102, 754mm², 12nm) ist aufgrund der Chipgröße eine Produktkategorie darüber.
 
3080 TI oder wie auch immer Minimum 2000 Euro kostet
Jo, also 3000€ müssen es schon werden. Sonst kommt man sich ja dumm vor so eine Billig-karte ins 1000€ Mainboard zustecken.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Ist ja auch kein wunder, wenn nvidia ihre Karten noch mit mining boom preisen verkauft und die Leute es trotzdem kaufen.
 
Mr. Rift schrieb:
Es steht aber auch schon fest, das nur Profi Chips und evtl. Die 3080ti in 7nm von TSCM kommt. Alles andere von Samsung in 8 nm, was 10 nm bei TSCM entspricht.
Nicht weil Nvidia 7 nm nicht wollte, es waren schlicht keine Kapazitäten mehr frei. Nvidia hat zu sehr gepokert mit TSCM, um Kosten zu drücken. Hat diesmal nicht geklappt.
Ein Chip wurde sogar gestrichen/verschoben laut Insider Berichten. Weil er nicht schneller als die 2080ti war. Der GA 103 Chip.

das sind bis jetzt nur gerüchte, da steht also gar nichts fest.
 
xexex schrieb:
Wir reden hier nicht von fünfstelligen Beträgen, sondern meist von dreistelligen. Für die meisten ist jeglicher Urlaub, Konzerte, und auch sonst jegliches öffentliches Leben ausgeblieben. Ich hätte dieses Jahr schon bestimmt das vierfache einer Grafikkarte versoffen, verfressen und verfeiert, wenn es die Möglichkeiten dazu gegeben hätte. Also sitzen viele auf Geld herum und hängen zuhause ab, da liegt die Anschaffung neuer Hardware eigentlich nahe,
Schön und gut, wenn Du so denkst. Viele werden aber nicht als erstes die Anschaffung einer neuen Grafikkarte im Kopf haben, wenn sie gerade arbeitslos geworden sind und überlegen müssen, wie es demnächst weitergeht.
Da ist eine Grafikkarte das Unwichtigste überhaupt, auch wenn es "nur" 3 stellig ist. Allein wieviele Studenten oder Jugendliche haben gerade ihren Minijob verloren. Glaubst Du nicht, die haben andere Sorgen?
 
Smartin schrieb:
Viele werden aber nicht als erstes die Anschaffung einer neuen Grafikkarte im Kopf haben, wenn sie gerade arbeitslos geworden sind und überlegen müssen, wie es demnächst weitergeht.

Das mag ja alles sein, aber du wolltest eine Erklärung für die guten Verkaufszahlen haben und da gibt es anscheinend mehr Leute die jetzt Geld herumliegen haben, als anders herum.

Ganz abgesehen davon wird man die Auswirkungen auf die Wirtschaft die durch Corona entstanden sind in erster Linie er in der nahen Zukunft spüren. In der ersten Wochen saßen viele Leute erst einmal alle Fest und hatten nicht besseres zu tun als zu zocken, was man auch wunderbar an Steam Statistiken sehen konnte. Da verwundert es wenig, wenn man nicht die Zeit auch gleich genutzt hat um aufzurüsten.

Zumal du auch eines vergisst, gerade in der IT, und aus dieser Ecke kommen nun mal auch viele Bastler, sind die Corona "Auswirkungen" eher positiv verlaufen. Ich möchte nicht wissen wie viele Teams/Fernarbeitsplätze ich in der letzten Zeit eingerichtet habe.
 
Zuletzt bearbeitet:
Zurück
Oben