Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News ROCm-Treibersupport für GPUs: AMD bietet Entwicklern nach Schlagabtausch eine Wunschliste
ReactivateMe347
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.225
CUDA ist auch eine Schnittstelle. Vielleicht bietet sie zusätzlich vordefinierte Kernel-Komponenten für bestimmt Aufgaben (SHA1-Blöcke z.B.) oder so (dann wäre das Teilantwort auf meine "was ist der Unterschied"-Frage), aber Schnittstellen sind doch beide?!Fegr8 schrieb:@ReactivateMe347 ROCm ist eine Plattform mit Bibliotheken wie CUDA. OpenCL ist eine Computingschnittstelle!
icemanspirit
Ensign
- Registriert
- Aug. 2019
- Beiträge
- 162
Let's not talk about it ^^Brrr schrieb:Wie sieht es eigentlich bei Intel mit dem Software Support aus? Würde mich mal interessieren.
Intel hat das große Kunststück in dem Bereich vollbracht ein halbwegs okayes Produkt zu produzieren in Gaudi 3, dann aber dieses sofort komplett im Markt zu killen indem man ankündigte die Architektur nicht in Zukunft fortsetzen zu wollen und in ihren eigenen Beschleuniger zu überführen welcher anders aussieht und mittlerweile auch schon wieder gecancelt wurde. Niemand in der AI-Industrie wird hier auch nur eine Minute in Softwareintegration, und Support stecken.
Wie gesagt. Ein Kunststück was seinesgleichen sucht...
Das stimmt an sich schon, nur kann man die Versäumnis von Ati vor der Übernahme aber auch nicht AMD ankreiden. Die waren auch glaube überhaupt erst deswegen ein Übernahmekandidat, weil sie so allmählich hinter Nvidia zurückfielen. AMD kümmert sich eben erst seit der Übernahem um eine eigene GPU-Sparte und die werden die ersten Jahre erstmal mit einer Bestandsaufnahme der Technologien von Ati beschäfttigt gewesen sein. während Nvidia in der Zwischenzeit weiter fortschreitet.Scie schrieb:ATI hat bereits 1987 seine ersten Grafikkarten produziert. Nvidia wurde 1993 gegründet und 1995 seine erste GPU produziert.
Alleine, dass die AI MAX PRO wasimmer KI APUs keinen ROCm support haben und diese in der Wishlist auftauchen ist schon einmal eine Aussage.
Wahrscheinlich ist es schon zu spät für AMD, um richtig im KI Business noch zu folgen. Mit Modellen rumzuspielen macht auf meinem 7940HS zwar Spaß, aber der fehlende Support bei verschiedenen Tools schmerzt schon - im Endeffekt läuft alles nur auf der CPU.
Wahrscheinlich ist es schon zu spät für AMD, um richtig im KI Business noch zu folgen. Mit Modellen rumzuspielen macht auf meinem 7940HS zwar Spaß, aber der fehlende Support bei verschiedenen Tools schmerzt schon - im Endeffekt läuft alles nur auf der CPU.
ReactivateMe347
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.225
Gut möglich. Ich frage mich sowieso, wo die großen NPUs in RZ bleiben, deren Hardware direkt Neuronale Netze abbildet.Mr.Uhu schrieb:Wahrscheinlich ist es schon zu spät für AMD, um richtig im KI Business noch zu folgen.
Macht Intel auch - lediglich die X3D Varianten sind unangefochten Nummer 1, wenn es um Spiele geht.Firefly2023 schrieb:Zum Glück liefern sie, was CPUs angeht
Bei der Anwendungsleistung und den nicht-X3D Varianten sind die AMD Chips nicht besser oder schlechter, als die Intel-Varianten.
Und bei den GPUs sehen sie gegen NVIDIA kein Land, siehe die News zum verschobenen Launch der neuen Gen. Und Geld verdient man halt nicht mit ein paar DIY Gamern, wie man am Erfolg von NVIDIA sehen kann.
Ergänzung ()
Ist das so? Das klingt mir nach Gelsinger, das dürfte nicht mehr aktuell sein?icemanspirit schrieb:indem man ankündigte die Architektur nicht in Zukunft fortsetzen zu wollen
https://www.theverge.com/2025/1/6/24337345/intel-discrete-gpu-ces-2025
der Unzensierte
Vice Admiral
- Registriert
- Juni 2009
- Beiträge
- 7.129
Da werden wohl auch die verfügbaren Ressourcen eine Rolle spielen. Es ist ist ja wohl allen klar wer da im Vergleich das dickere Portemonnaie hat. Man kann eigentlich nur hoffen das AMD auch in der GPU-Sparte mal so einen "Ryzen-Moment" hat. UDNA?
Das hat man auch über das CPU-Business geschrieben. Was daraus geworden ist? Siehe meine Signatur.Mr.Uhu schrieb:Wahrscheinlich ist es schon zu spät für AMD, um richtig im KI Business noch zu folgen.
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.882
so sehe ich das auch - die consumerkarten hat amd schon immer ziemlich stark aus dem corporate-bereich raushalten wollen und wirklich geld mach man damit nicht.icemanspirit schrieb:ROCm auf Consumer-GPUs ist süß aber bewegt nicht wirklich die Euros if you ask me..
Ich stimme in Teilen @KlaasKersting zu, die Öffentlichkeitsarbeit von AMD lässt an Professionalität stark missen in dieser Hinsicht. George Hotz ist ein Keyboardheld aber richtig was fertig gebracht hat er noch nie....
nur die kommunikation - oder aber auch die präsentationen - sind selten wirklich gut in sachen timing oder gut gemacht; das letzte mal dass ich dachte es bewegt sich was, war zur zeit der rx5000 serie, denn da hat man wirklich was vorzeigen können und auch wenn auch da der highend bereich nicht bedient wurde, hat man die zielgruppe schlicht abgeholt.
ich weiß nicht so recht; wünschen kann man sich viel und das bindet bei einem herstellere auch personal; wenn dabei aber nichts zählbares rauskommt, kann ich amd stückweit verstehen.konkretor schrieb:Es ist ein Trauerspiel, wieso wird hier der Support der Karten so eingeschränkt. Bei Nvidia läuft cuda egal mit welcher Karte out of the box.
die consumer-gpu werden hier sicherlich nicht einen großen technischen impact bei den ki anwerndungen und konsorten haben - ABER was amd meiner meinung nach massiv unterschätzt ist der foot-in-the-door effekt bei den nutzern - studenten bzw. leute aus dem universitären bereich kennen diesen: wenn man während des studiums z.b. lösungen von mathworks(matlab) oder autodesk (autocad) verwendet hat oder seine ersten gehschritte mit einer spezifischen technik machte, ist die wahrscheinlichkeit groß dass man bei den lösungen bleibt die man kennt bzw. dass man zunächst dort ansetzt wo man bereits howto hat.
wenn ich die ersten ki spielchen daheim an einer amd gpu gemacht habe, weil diese zufällig in meinem rechner steckt, sind die erfahrungen damit prägend...wenn es kleine erfolge gibt bleibt man bei amd, genauso wie wenn man merkt dass die eigene hardware für einen bestimmte anwendung nicht unterstützt wird und man zur konkurenz greifen müsste.
und das besonders schlimme ist dass dies auch ein argument wird für diejenigen welche die funktionalität an sich garnicht brauchen; in der heutigen "fomo" zeit könnte ja etwas kommen wofür man den support braucht und dann gilt bei vielen ja "lieber haben und nicht brauchen als brauchen und nicht haben"..
Zuletzt bearbeitet:
UNRUHEHERD
Lt. Commander
- Registriert
- Mai 2013
- Beiträge
- 1.384
Das ist alleine die Realität des Marktes und keine Sache des Commitments. Mit RDNA 4 konnten sie keine Lösung liefern, die bei ansprechendem Preis und Energiebedarf konkurrenzfähig war. Erst die nächste Architektur soll das richten. Ich bin mir auch nicht sicher, wie erfolgversprechend für AMD gewesen wäre, die Performancekrone zu erlangen. Es hätten ja doch alle (wie hier im Thread) gesagt, dass Nvidia bessere Features und Software liefert und nicht zu AMD gegriffen, oder?Firefly2023 schrieb:Alleine schon, dass AMD gesagt hatte, sie wollen keine HighEnd-Karten entwickeln, zeigt mir, dass sie nicht wirklich Lust haben.
Da ergibt es IMHO mehr Sinn, zumindest für Spieler im unteren und mittleren Preissegment anzugreifen, wo besondere Features und Effizienz weniger stark ins Gewicht fallen. Als Aktionär hätte ich mir sogar sehr gewünscht, AMD hätte in Zeiten der Inflation eine bombige Karte für 200 Euro rausgehauen, die viel Marktanteile bringt (beispielsweise 3060 Ti-Leistung für 200 Euro).
IMHO war AMDs Timing unglücklich. Früher waren die Karten im Gaming okay und in Compute-Workloads stark. Nvidia lieferte mit Pascal aber eine beschnittene Architektur, die in Spielen unheimlich effizient war. AMD konterte mit RDNA und startete ebenfalls die Spaltung seiner Architekturen, wohingegen Nvidia die Gaming- und Compute-Märkte quasi wieder vereint hat, was AMD mit UDNA auch wieder machen wird.
Ich hoffe, dass sich die vielen Neueinstellungen bei AMD darin äußern, dass auch die Software für professionelle Anwender deutlich besser wird. Zum Spielen hat für mich alles gepasst; ich nutze bei AMD und Nvidia aber nur den Minimaltreiber + Afterburner.
Cruentatus
Lt. Junior Grade Pro
- Registriert
- Nov. 2010
- Beiträge
- 488
Oh je, wieder die übliche Diskussion... AMD soll halt gefälligst machen und "einfach mal so" zu Nvidia aufholen, oder einfach gleich besser sein. Ist doch ganz einfach. Sieht man ja auch bei Intel, wie einfach das ist...
Viele vergessen offenbar oder blenden aus wie viel größer Nvidia ist. Wie viel Kohle Nvidia in Software und Entwickler stecken können. Und das seit "Ewigkeiten". AMD hingegen musste den Laden vor ein paar Jahren fast zusperren und muss sich mit seinem viel kleineren Budget auch noch um die CPU Entwicklung kümmern. Insofern finde ich es weiterhin beeindruckend was AMD schafft. Dass Software in den Fokus rücken muss haben sie ja erkannt und auch kommuniziert. Das dauert aber dennoch Jahre.
Nichtsdestotrotz sollte man auch an der Professionalisierung der Öffentlichkeitsarbeit arbeiten.
Grüße
Viele vergessen offenbar oder blenden aus wie viel größer Nvidia ist. Wie viel Kohle Nvidia in Software und Entwickler stecken können. Und das seit "Ewigkeiten". AMD hingegen musste den Laden vor ein paar Jahren fast zusperren und muss sich mit seinem viel kleineren Budget auch noch um die CPU Entwicklung kümmern. Insofern finde ich es weiterhin beeindruckend was AMD schafft. Dass Software in den Fokus rücken muss haben sie ja erkannt und auch kommuniziert. Das dauert aber dennoch Jahre.
Nichtsdestotrotz sollte man auch an der Professionalisierung der Öffentlichkeitsarbeit arbeiten.
Grüße
icemanspirit
Ensign
- Registriert
- Aug. 2019
- Beiträge
- 162
Ich rede von den AI-Karten, diskrete (Consumer-) Karten hatte ich nicht im Blick. Nur was im Datencenter verbaut wird..mscn schrieb:Ist das so? Das klingt mir nach Gelsinger, das dürfte nicht mehr aktuell sein?
https://www.theverge.com/2025/1/6/24337345/intel-discrete-gpu-ces-2025
Mir war nicht bekannt, dass sie ihre Anstrengungen dazu einstellen wollten. Ich kannte nur die (nicht mehr aktuelle) Ankündigung für den Consumer-Bereich.icemanspirit schrieb:Nur was im Datencenter verbaut wird..
wern001
Admiral
- Registriert
- Mai 2017
- Beiträge
- 7.609
ReactivateMe347 schrieb:CUDA ist auch eine Schnittstelle. Vielleicht bietet sie zusätzlich vordefinierte Kernel-Komponenten für bestimmt Aufgaben (SHA1-Blöcke z.B.) oder so (dann wäre das Teilantwort auf meine "was ist der Unterschied"-Frage), aber Schnittstellen sind doch beide?!
CUDA ist die Nvidia only version von OpenCL.
Intel hat halt die eigene Xe-Architektur und die zugekaufte Gaudi-Architektur. Xe haben wir zuletzt als Ponte Vecchio (GPU Max) gesehen, was sich als Rohrkrepierer erwiesen hat und im Aurora-Supercomputer eine einzige Blamage war und ist. Die Gaudi-Architektur wird nicht mehr weiter entwickelt, die nächste Generation Beschleuniger wird wieder auf Xe basieren (Falcon Shores). Dass Intel sich irgendwann für eine Architektur entscheiden müsste, war schon lange klar. Dass sie aber die halbwegs erfolgreiche und brauchbare Gaudi-Architektur canceln und stattdessen die schonmal gescheiterte Xe-Architektur weiterführen wollen ist halt schon "spannend".mscn schrieb:Mir war nicht bekannt, dass sie ihre Anstrengungen dazu einstellen wollten. Ich kannte nur die (nicht mehr aktuelle) Ankündigung für den Consumer-Bereich.
Huang hatte vor 20 Jahren erkannt wie die GPU komplexe Ausführungen beschleunigen kann. KI-Blase 202x ist die Ernte dieser jahrzehntelangen Fokussierung.mibbio schrieb:Nvidia ist aber auch schon deutlich länger im GPU-Geschäft als AMD und kann sich zudem voll auf GPUs und deren Software konzentrieren. AMD hat erst durch die Übernahme von Ati 2006 eine GPU-Sparte und auch nach der Übernahme hat sich AMD erstmal weiter primär auf CPUs konzetriert und die Ati-Sparte war noch eine Weile mehr oder weniger ein Nebengeschäft.
AMD hatte ausreichend Zeit ein eigenes Profil herauszuarbeiten. Berechnungen zur Bildqualität liegen AMD bis heute nicht, gegen Nvidia und vor allem Intel fällt AMD deutlich ab. Team rot fehlen intern harte, boniorientierte Vorgaben. An den Fähigkeiten der Ingenieure und Mathematiker sollte es nicht liegen oder AMD muss das Portemonnaie öffnen. Spielebenchmarks sind kein Maßstab für die Qualität eines Produkts.
- Registriert
- Feb. 2012
- Beiträge
- 2.101
Ja, das hat nVidia eindeutig richtig gemacht, zwischen Profi und Desktop nicht mutwillig Grenzen einzubauen oder zweigleisig zu fahren. Unbestritten.Bunhy schrieb:Scheinbar schon, die Argumente vieler hier sind ja, dass CUDA auf jeder Dadelkiste doch super läuft. Als ob das ausschlaggebend für die Umsätze im AI Bereich wäre. Nichts desto trotz, AMD muss aufholen.
Aber im Sinne der News, geht es hier nur um das Profisegment und allein hier fehlt es ja aber bei AMD. Wenn es nach mir ginge, würde ich mich auch über eine CUDA-ähnliche Lösung von AMD freuen, für alle Projekte, ob groß oder klein zu verwenden. Würde mir bei passenden Rahmenbedingungen eine kleine Graka in meinen Heimserver dengeln, für heimische AI Spielereien. Jedoch nicht zum nVidia-Preis.
whynot?
Lt. Junior Grade
- Registriert
- Dez. 2005
- Beiträge
- 377
Habe den Schlagabtausch auch auf X verfolgt.
Dass George Hotz polarisiert steht außer Frage, technisch kann ihm aber keiner das Wasser reichen und die Art und Weise wie Anush teilweise auf seine Vorwürfe geantwortet hat strotzt nur so vor Arroganz und Eingebildetheit.
Im Prinzip hat Semianalysis (die beste Semi HW/SW Analysebude der Welt) die ganzen Vorwürfe von geohotz bestätigt
https://semianalysis.com/2024/12/22/mi300x-vs-h100-vs-h200-benchmark-part-1-training/
AMD hat massive Defizite in der Softwareabteilung
Dass George Hotz polarisiert steht außer Frage, technisch kann ihm aber keiner das Wasser reichen und die Art und Weise wie Anush teilweise auf seine Vorwürfe geantwortet hat strotzt nur so vor Arroganz und Eingebildetheit.
Im Prinzip hat Semianalysis (die beste Semi HW/SW Analysebude der Welt) die ganzen Vorwürfe von geohotz bestätigt
https://semianalysis.com/2024/12/22/mi300x-vs-h100-vs-h200-benchmark-part-1-training/
AMD hat massive Defizite in der Softwareabteilung