News MLPerf Training Benchmarks: AMD und Intel schweigen zu Nvidias Machtdemonstration

Ich war und bin kein Fan von Nvidia, und das aus verschiedenen Gründen. Es ist trotzdem beeindruckend, was sie liefern. Das muss man neidlos anerkennen.
 
  • Gefällt mir
Reaktionen: SweetOhm, Snoop7676, Hatch und 6 andere
Gute Nachrichten für nVidia Aktionäre (also auch mich), aber schlechte für die Kunden und die Forschung in dem Bereich. Denn das heisst nur, dass es noch teurer wird und somit weniger Zugang zu KI rauskommt.

Es ist ein zweischneidiges Schwert.
 
  • Gefällt mir
Reaktionen: SweetOhm und soLofox
MC´s schrieb:
Wenn die KI Blase platzt,
lol, das hören wir seit 8 Jahren.
Seit 2016 finden wir jedes Jahr nonstop solche Artikel, alle lagen falsch, auch alle hier im Forum.
Das hat fast MLID YOutube Qualität mit der Anzahl der Fehlprognosen :D

Hier mal exemplarisch zwei Artikel aus 2016 und 2018.

1731521981357.png

https://www.huffpost.com/entry/ai-the-bubble-bursts-in-2_b_13439718

1731521925960.png

https://www.electronicspecifier.com/products/artificial-intelligence/is-the-ai-bubble-about-to-burst


Also das war nix gegen Dich jetzt @MC´s Ich nehme Deine Aussage nur stellvertretend für die Masse dieser "AI Blase platzt demnächst" Beiträge, die fast einem Jahrzehnt nun falsch lagen. Es wird mit jedem weiteren Jahr dieser Fehlannahme halt lustiger ^^
 
  • Gefällt mir
Reaktionen: milliardo, ElliotAlderson, Randfee und 3 andere
@Laphonso mit dem Unterschied, dass KI damals mit einem immer höheren Nutzen verbunden wurde, während jetzt die Unternehmen teilweise schon merken, dass die versprochenen Effizienzgewinne und Ergebnisse ausbleiben. Die einzigen, die bisher wirklich Geld mit KI verdienen sind nicht die Nutzer, sondern die Hersteller der Hardware und Tools. Wenn sich das nicht bald ändert, wird die Nachfrage massiv sinken. Viele der KI Anwendungen brauchen nämlich keine Hochleistungshardware.

@Topic Beeindruckend und Intel ist erschreckend abgeschlagen
 
  • Gefällt mir
Reaktionen: SweetOhm, yummycandy, fox40phil und 3 andere
Lost_Byte schrieb:
mit dem Unterschied, dass KI damals mit einem immer höheren Nutzen verbunden wurde, während jetzt die Unternehmen teilweise schon merken, dass die versprochenen Effizienzgewinne und Ergebnisse ausbleiben.
Volle Zustimmung, aber wir sind m.E. erst noch am Beginn des Momentums. Es werden sicher die AI businessmodelle, die sich nicht tragen, ausgefiltert, aber das ist kein Indiz für Blase platzen, sondern für inhärente Korrekturen im Markt, die wir überall haben.
Dass die "KI" per se hier platzt, ist ein Irrtum seit vielen Jahren, weil diese Debatte immer die Chancen weglässt. Mir wird da zu wenig differenziert.

Ich arbeite selber in einem IT Unternehmen im public sector und uns rennen die Ministerien, Behörden alle Fachlichkeiten (Soizales, Gesundheit, Arbeit, Kultur, Polizei, Forensik, Justiz, Statistik etc.) und auch Privatunternehmen für PPP die Bude ein, weil AI und "smarte Produkte" unfassbare Transformationsmöglichkeiten bringt, die vor allem stupide Arbeiten eliminieren können und komplette workflows einfacher und moderner machen. Das ist auch bei uns ein Multimilliardenmarkt. Das gilt auch ebenso in der Medizin, Technik an sich, in der Industrie ebenso etc.
Da wird gar nix "platzen". Platzen werden nur die Ballons der Trittberettfahrer, die keinen AI gestützten usecase haben, der sich monetarisieren lässt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DirtyHarryOne, Marius, Duggan und eine weitere Person
Yosup schrieb:
Du siehst derzeit den aktuell wahren Wert NVidias und irgendwann den dann wahren Wert NVidias.

Anteilsscheine sind immer genau das wert, was zu dem Zeitpunkt, den man "Gegenwart" nennt, jemand zu zahlen bereit ist.
Niemand wäre aktuell bereit Nvidia für 3,6 Billionen zu kaufen, das ist lediglich der Börsenwert.
 
  • Gefällt mir
Reaktionen: Gee858eeG
MC´s schrieb:
Wenn die KI Blase platzt, werden wir den wahren Kurswert von Nvidia sehen. Der jetzige Kurs hat das alles schon eingepreist und noch etwas mehr.
So ein Dusel wie Nvidia hat, wird rechtzeitig schon wieder die nächste Blase aufgeblasen, für die man Nvidia Hardware braucht.
 
Ja äh... eine kurze Einleitung um was es überhaupt geht wäre nett.
Lese gefühlt zum ersten Mal was zu diesen Produkten.
Was ist das alles!?
 
  • Gefällt mir
Reaktionen: Muntermacher und Zarlak
Nvidia ist seit 2018 im KI-Business, nimmt man die Entwicklung mir dazu sind das locker noch mal 2-4 Jahre. Die Investitionen von vor 10 Jahren tragen nun Früchte. Gute gemacht Nvidia!
 
  • Gefällt mir
Reaktionen: Snoop7676 und fox40phil
Was genau ist eigentlich der Grund warum NVIDIA Technologisch so weit voraus ist? Man muss ja eigentlich davon ausgehen, dass AMD und Intel auch kluge Köpfe haben, die prinzipiell wissen worauf es bei diesen Chips ankommt. Dass NVIDIA dann meinetwegen ein bisschen besser ist weil sie ne bessere Lösung haben, ok. Aber ein so krasser Unterschied? Worin liegt das begründet?
 
  • Gefällt mir
Reaktionen: fox40phil
Conqi schrieb:
Man muss sich mal überlegen, dass zwischen FX-8350 (und der war schon ein lauwarmer Aufguss) und dem ersten Ryzen 5 Jahre lagen. Was hätte Intel zu dem Zeitpunkt davon gehabt, sich mehr zu bemühen? Ihre Probleme jetzt liegen eher bei der Fertigung und da war AMD schon lange nicht mehr der Konkurrent.
Das ist einfach falsch. Von 2011 hat man von Westmere 6C über Sandy Bridge 8C in 32nm über Ivy Bridge 12C, Haswell 18C in 16nm, Broadwell 22C und Skylake bis 28C in 14nm sehr viel mehr erreicht als der Desktop überhaupt haben wollte.
Noch 2014/2015 waren die Foren voll mit Diskussionen über OCed 4C mit 5GHz ggü. langsamer takenden 6 oder 8C aus der HEDT Reihe. Du konntest technisch 2014 einen 5960X mit 4,5GHz Allcore betreiben bei 200W Verbrauch, das ist nicht mehr als heute üblich, auch bei AMD und war 3700X aus 2019 Niveau. Das war da, es konnte gekauft werden. Ja es war teuer, aber das kann man kaum Intel absprechen. Heute kostet ein Retail Mainstream Board mit gehobener Ausstattung mit dem 16C zusammen auch fast so viel.

Um das zeitlich mal in dein 5 Jahres Argument zu bringen, seit 5 Jahren haben wir 16C von AMD im Mainstream. Ist das jetzt schlimm? Meckert jetzt wer weil es zu wenig ist?
Der Unterschied von einem 16C 3950X zu einem 9950X oder bald kommenden 9950X3D ist gewaltig. Der Unterschied von 2600k Stock zu 7700k ebenso. Sooo viel nimmt sich das nicht.
 
  • Gefällt mir
Reaktionen: Yosup
fdsonne schrieb:
Das ist einfach falsch. Von 2011 hat man von Westmere 6C über Sandy Bridge 8C in 32nm über Ivy Bridge 12C, Haswell 18C in 16nm, Broadwell 22C und Skylake bis 28C in 14nm sehr viel mehr erreicht als der Desktop überhaupt haben wollte.

Oder sehr viel mehr verlangt als der Desktop-Kunde zahlen wollte. Dass soviele Kerne von Desktop-Kunden gekauft werden, zeigen der der Ryzen 3950X (16C) und der core i9-13900K (24C). Wobei diese Prozessoren auch zum Ende des HEDT-Segments gefuehrt haben.

Heute kostet ein Retail Mainstream Board mit gehobener Ausstattung mit dem 16C zusammen auch fast so viel.

Du kannst viel fuer ein Board ausgeben, ja, aber Du musst nicht, zumindest wenn Du Desktop-Boards kaufst. Bei Boards fuer kleine Xeons langen die inzwischen richtig zu, fruher nicht so.
 
  • Gefällt mir
Reaktionen: fox40phil
Irgendwie fehlt hier komplett die Einleitung und Zahlen im Artikel.
Worum geht es?
Was wurde vorgestellt?
Wer hat welche Benchmarks gemacht?
Wie sind die Ergebnisse (Intel, Nvidia, Amd, plus Last Gen)
Was messen diese überhaupt?
Was hat dass für ne Bedeutung/Anwendung?

@Wolfgang : Siehe auch die anderen zustimmenden Kommentare, kannst du uns bitte aufklären?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Coenzym, Gee858eeG und 7 andere
Lost_Byte schrieb:
@Laphonso mit dem Unterschied, dass KI damals mit einem immer höheren Nutzen verbunden wurde, während jetzt die Unternehmen teilweise schon merken, dass die versprochenen Effizienzgewinne und Ergebnisse ausbleiben. Die einzigen, die bisher wirklich Geld mit KI verdienen sind nicht die Nutzer, sondern die Hersteller der Hardware und Tools. Wenn sich das nicht bald ändert, wird die Nachfrage massiv sinken. Viele der KI Anwendungen brauchen nämlich keine Hochleistungshardware.
https://www.customerexperiencedive.com/news/gartner-symposium-keynote-AI/731122/
 
  • Gefällt mir
Reaktionen: Capet
Laphonso schrieb:
lol, das hören wir seit 8 Jahren.
Seit 2016 finden wir jedes Jahr nonstop solche Artikel, alle lagen falsch, auch alle hier im Forum.

Solche Annahmen sind schon deswegen widersprüchlich, weil sogenannte KI auf stinknormalen Programm-Code aufbaut, egal in welcher Sprache. Da sich Programmiersprachen kontinuierlich weiter entwickeln oder neue sich etablieren, wird es folglich auch die KI. Einzig was man gestern als Programm bezeichnete und aktuell als KI deklariert ist, kann morgen dann "virtuelles Bewußtsein" heißen. Letztendlich ist es aber ein und das selbe, was auch zukünftig durch konstante Nachfrage gekennzeichnet ist und keinen Markt-Schwankungen unterliegen kann, wie z.B. im Immo-Bereich. Eine KI-Blase schließt sich folglich von vornherein aus(es gibt ja auch keine Programmier- oder Programm-Blase).
 
  • Gefällt mir
Reaktionen: Laphonso
Piak schrieb:
Irgendwie fehlt hier komplett die Einleitung und Zahlen im Artikel.
Worum geht es?
Was wurde vorgestellt?
Wer hat welche Benchmarks gemacht?
Wie sind die Ergebnisse (Intel, Nvidia, Amd, plus Last Gen)
Was messen diese überhaupt?
Was hat dass für ne Bedeutung/Anwendung?
Danke!!
Hab’s komplett gelesen und weiß einfach nicht worum es geht … server? HPCs vermutlich… aber dennoch ist das hier nur ein 60% Artikel? Ohne jeglichen Hinweis oder Hintergrund.. und wenn’s nur 3-4 Sätze gewesen wären.
 
  • Gefällt mir
Reaktionen: SweetOhm, Piak, Muntermacher und eine weitere Person
Xedos99 schrieb:
Die Lizenz wird sich NV wohl besorgen.
Sehr Zweifelhaft. Die Lizenz müsste NV sich von Intel besorgen, und ich glaube kaum, dass die - vor allem in ihrer derzeitigen Situation - noch einen Mitstreiter im X86-Markt haben wollen, noch dazu einen der ziemlich viel Geld in den Taschen hat. Und natürlich müsste NV dann auch noch mit AMD verhandeln, für die 64-bit Erweiterung von X86, AMD64. Und AMD wird vermutlich erst recht kein Interesse haben in noch einem Sektor mit Nvidia zu konkurrieren.
 
Neodar schrieb:
AMD machts doch eigentlich richtig. Statt sich mit irgendwelchem Benchmark Marketing Gedöhns zu befassen, setzen sie ihre Manpower dazu ein, ihre Produkte bei den Kunden gescheit zum Laufen zu bringen.
Auf jeden Fall die richtigen Prioritäten gesetzt.
AMD würde es genau richtig machen, wenn das eine auch zum anderen führen würde. "Statt sich mit irgendwelchem Benchmark Marketing Gedöhns zu befassen" klingt aber viel romantischer.

Ich frage, wann AMD anfängt, das Marketing Gedöhns bei CPUs und GPUs auch wegzulassen, und sich lieber auf ihre Produkte konzentriert... (und nicht falsch verstehen, ich würde gerade gerne einen Ryzen 9800X3D kaufen, wenn es ihn zu vernünftigen Preisen gibt, es eilt nicht, aber mein alter Ryzen dürfte auch gerne mal abgelöst werden, also ich hasse AMD nicht, ich hasse auch Intel nicht, aber ich bin auch kein Fanboy, außer bei Grafikkarten ein wenig, da bevorzuge ich NVIDIA, und auch wenn meine letzten Karten alle von NVIDIA waren, war ich auch kurz vor einem Kauf einer AMD-Karte, auch hier gilt einfach: Ich schau mir an, welche Firma das für mich ansprechenste Produkt hat)
 
Zurück
Oben