News GPU-Team: AMD in China dementiert Gerüchte über Entlassungen

DevPandi schrieb:
Dazu kommt auch, dass Sony als auch MS Entwickler sowohl auf Hardware-Ebene als auch Software-Ebene abstellt, die AMD auch für andere Produkte nutzen kann, besser das, was dabei herauskommt.


Auch wenn die Grundaussage deines Beitrages stimmt, ist dein Beitrag in weiten Teilen falsch, weil er von den falschen Voraussetzungen ausgeht und hier verschiedene Probleme und verschiedene Ebenen mischt.

GPUs waren bereits in den 90er "Mehrkern-Prozessoren", weil sich gerade Aufgaben bei der Bildgenerierung sehr gut skalieren lassen. SIMD und SIMT sind hier heute die vorherrschenden Konzepte. 3dfx hatte entsprechend in der Prä-DX7-Ära auch ein einfaches System, wie die Aufgaben zwischen zwei GPUs quasi perfekt geteilt werden können und auch zwischen mehr Kernen. Voodoo 5 5500 als auch die Voodoo 5 6000 funktionieren wunderbar.

Die ersten Probleme - auch mit der "Synchronisation" kamen erst mit DX7 und DX8, aber auch hier hatte 3dfx beim Rampage eine relativ gute Lösung gefunden, in dem man ein getrennte GPU-Architektur entworfen hat. Eine "GPU" (in dem Fall Geometry-Processing-Unit) und eine "PPU" - Pixel-Processing-Unit. Die GPU hätte die T&L-Anweisungen sowie die Vertex-Shader ausgeführt und die PPU dann die Polygone gerastert, mit Texturen versehen und entsprechend die Pixel-Shader ausgeführt.

Das wäre dann in der Form sogar bis 2005/2006 und DirectX9.0c und dem Shader-Modell 3 relativ gut gegangen, bis Direct9.0c quasi die klassische Grafikpipeline über den Haufen geworfen hätte.

Aber auch dafür gab es bei 3dfx sogar schon erste Überlegungen. Es ist seit dem zwar schwerer geworden, aber die Probleme zwischen einem wirklichen "Multi-Chip"-GPU-Design kannst du nicht mit den Problemen eines Multi-GPU-Designs vergleichen.

Crossfire und SLI haben und hatten damals ganz andere Probleme. Während in der Zeit von DX8 und auch bedingt DirectX 9 AFR teilweise sehr gut funktionierte, fingen hier die Probleme erst mit dem Aufkommen der temporalen Effekte an, die heute aber allgegenwärtig sind in vielen Effekten, ohne dass man es mitbekommt. In diesem Fall gibt es - auch beim SFR - natürlich ein Problem mit der Datensynchronisation, soweit richtig, aber das liegt eben am Multi-GPU-Ansatz und den Wegen zwischen den Chips und den dadurch entstehenden Latenzen.

In einem echten Multi-Chip-GPU-Design können die Probleme der Synchronisation als auch Latenz jedoch ganz anders gelöst werden und sind daher quasi "nicht existent". Denn die Probleme der Synchronisation der Daten und der Latenz hat man heute sogar in monolithischen GPUs, da die Datenpfade entsprechend weit sind und die Caches viele Rechenwerke auf einmal versorgen müssen.

Was erneut primär für ein Multi-GPU gespannt gilt, besonders wenn es im AFR-Modus arbeitet. Würde man hier bereits in einen SFR-Modus gehen, könnten einige Probleme umgangen werden, gleichzeitig wäre aber keine Skalierung von bis zu 100 % mehr möglich.

Gerade ein SFR-Modus lässt sich heute auf Ebene des Treibers aber immer leichter umsetzen, da egal ob NVIDIA, Intel oder AMD, alle Grafikkarten mit einem Tiled-Based-Renderer arbeiten und das zu berechnende Bild in entsprechende Kacheln geteilt wird, die als Arbeitspakete von der GPU abgearbeitet werden.

Und hier ist dann auch der entscheidende Punkt, warum man ein Mutli-GPU-Design nicht mit einem Mutli-Chip-GPU-Design vergleichen kann. AMD hat nicht umsonst ein Patent in diesem Bereich, der die Kommunikation mehrere GPUs über einen L3-Cache definiert, hier kann man theoretisch aber auch den L2-Cache des GCD bei AMD nehmen, die über einen entsprechenden Link verfügen, der beide L2 als "Datenautobahn" verbinden. Klar entsteht dann eine gewisse Latenz zwischen dem L2-1 und dem L2-2, nur kann entsprechend eingepreist werden. Am Ende skalieren dann zwei GCD nicht zu 100 % - was ohne hin einen absoluten Idealwert darstellt, der kaum oder nie erreicht wird - aber vielleicht zu 80 - 90 %, was auch sehr gut ist.

Ebenso könnte man - AMD zeigt es bei CDNA3 - auch noch mal auf ein anderes System setzten und den Infinty-Cache zusammen mit dem RAM-Controller in ein Basetile auslagern und dann die GCDs auf diese setzten, was die Signalwege verkürzt und den Infinity-Cache zur Synchronistation nutzt.

Klar, AMD müsste hier natürlich noch einige Probleme lösen, die durchaus auch harte Nüsse sind, aber die Probleme einer echten Mutli-Chip-GPU lassen sich nur bedingt mit denen einer Mutli-GPU vergleichen. Eine Mutli-Chip-GPU ist nach "Außen" im Software-Stack nämlich eine GPU, keine Mutli-GPU, wie es bei Crossfire und SLI der Fall war.
hmmm, verständlich.

Komisch, wenns so einfach ist, und mit Multi-Chip nichts zu tun hat...
fragt sich nur wieso es AMD und Nvidia noch nicht in einem Serienprodukt released hat.
 
gab halt vor paar tagen von nvidia tensor RT support für stable diffusion. das halt nochmal doppelt so schnell wie das bisherige pytorch+xformers. ich habe im moment 40!!! fache performance mit der 4090 in stable diffusion wie damals auf meiner 6900xt wo ich sie dann verkauft habe. da bringt es mir auch nix wenn es die amd karten billiger gibt wenn ich die sachen die ich benutzen will nicht sinnvoll nutzen kann weils an der software klemmt.
 
  • Gefällt mir
Reaktionen: fox40phil und 4nanai
Wer hier ernsthaft meint, dass seine Kaufentscheidung keinen Einfluss hat ist bestimmt auch Nichtwähler... Weil eine einzelne Stimme ja sowieso nichts ändert :-)

Ich verstehe das Image von Nvidia nicht. 3,5 GB GTX970, sterbende Grafikkarten durch Kosteneinsparungen (Lötzinn bei mehreren Reihen), meist viel zu wenig VRAM, schwachsinnige Kosteneinsparungen bei krass teuren Grafikkarten (Displayport 1.4 ...). Ebenso war RDNA2 bei der Effizienz vorne und war durch den VRAM deutlich besser für eine längerfristige Nutzung geeignet. Die ganzen Software-Features interessieren mich überhaupt nicht und Raytracing ist bei den Performance-Einbußen (für mich) im Vergleich zu mindestens 120FPS keine Alternative.

Ich hatte viele Nvidia-Karten und nun auch viele AMD-Karten. Funktioniert beides. Man sollte keine Religion daraus machen. Auch Nvidia kocht nur mit Wasser.

LG

Micha
 
  • Gefällt mir
Reaktionen: Nowareeng, Eli0t, Qyxes und 11 andere
Next_Us schrieb:
Ihre jeweiligen Produkte werden günstiger angeboten als die der Konkurrenz im selben Preisbereich. Marktpreis und UVP.
Die 7900XTX ist alle Ratings miteinbezogen insgesamt schwächer und leidet an AMD´s Softwareschwäche bzw. Upscaling Qualität, da ist Nvidia für die meisten Nutzer momentan die bessere Wahl, das muss man sich auch als AMD User eingestehen.
Vom Preis her finde ich die Karte mit 24GB und einer Rasterleistung leicht über der 4080 persönlich schon interessanter, da ich auf RT noch keinen Wert lege.
 
Next_Us schrieb:
Das war damals vielleicht so. ......
nvidia setzt auch auf ARM CPUs und Sparten, wo SoCs verkauft werden können. Die Nintendo Switch ist selbst ein nvidia SoC und das in einer recht erfolgreichen Nintendo Handheld Konsole am Markt. Sonst halt im Automotive Bereich im Einsatz. Apple entwickelt auch SoCs und intel wird ohne GPGPUs nicht im Servergeschäft voran kommen. Also die Kombination aus CPU und GPU aus einer Hand, wenn man nvidias AI und Beschleuniger Lösungen angreifen will.

intel hilft selbst eine gut umgesetzte iGP sogar im Contentbereich, während die iGP vom AMD ZEN 5 Treiberprobleme in den Anwendungen hatte und vielleicht noch hat.

AMD rettet derzeit der Xilinx Kauf, nur sollte AMD Xilinx nicht wie ATi anfangen intern demontieren zu müssen, wenn die Geschäftspartner Vertrauen in die Produkte haben. Weil sonst geht es wie mit den GPUs bergab.

Bei AMD ist momentan jede abgewickelte Stelle eine Abrissbirne am AMD Fundament angelegt. intel kann sich sowas durch mögliche Personalüberkapazitäten in einigen Sparten wohl leisten, nvidia wird seine Stammbelegschaft mit Gold füttern, damit keiner zu AMD oder intel abwandert.

Als sich Frau Su beim AMD Börsenhoch vor einigen Jahren einige ihrer Aktienanteile zu Geld machte und ein üppiges Grundgehalt bekommt sie auch, hätte sie es in zwei gut bezahlte Arbeitsstellen in der AMD Softwareabteilung investieren sollen. Das ist nämlich Führungskompetenz in Personalfragen das eigene Unternehmen zu den Wettbewerbern aufzubauen und nicht nur die eigenen Produkte im Preis an den Mitbewerbern anzupassen.
 
Zuletzt bearbeitet:
knapp 9it/s mit 1280x960 auflösung in 1111automatic stable diffusion mit tensorRT auf der 4090.

würde mich echt interessieren wo die amd karten im moment liegen wenn einer vergleichsmöglichkeiten hat gerne berichten.
Meiner meinung nach hat amd den ganzen ai, CUDA und tensor hypetrain komplett verschlafen und er ist schon abgefahren. Und das schlimme daran, wir wissen bereits alle, das die 5090 dann mangels konkurenz 2200€+ kosten wird, zum leidwesen aller.
1698081516084.png
 
  • Gefällt mir
Reaktionen: fox40phil
Next_Us schrieb:
Ihre jeweiligen Produkte werden günstiger angeboten als die der Konkurrenz im selben Preisbereich. Marktpreis und UVP.
Next_Us schrieb:
Schlecht verkauft sich die 7900XTX sicherlich aber auch nicht. Produkte stark unter Wert zu verkaufen kann sich die RTG in der jetzigen Situation sicherlich auch nicht leisten.
Ich denke, da muss man sich schon ehrlich machen. Was hat AMD denn rausgebracht? Die 7900XT die anfangs locker 300 Eur mehr gekostet hat als die 6800XT/6900XT, aber gerade mal 15-25 % mehr Leistung gebracht hat. Und die 7900XTX, die zwar schneller ist, aber halt anfangs auch eher bei 1000 Eur und mehr lag. Dazu die Kinderkrankheiten.
Von der 7700 und 7800 ist eine Karte überflüssig und dazu sind die Karten viel zu spät gekommen. Wenn die gleich mitgekommen wären, würde die Welt auch anders aussehen. Aber nach fast 3 Jahren kleine Leistungsspünge als große Innovation zu verkaufen, ist halt nicht so prickelnd. Von der Leistungsklasse darunter mal ganz zu schweigen.
Der Markt ist da schon sehr ehrlich, denn grundsätrzlich ist nachwievor großer Bedarf bei Grafikkarten, aber da muss mehr Leistungplus kommen.
Klar teilweise hat NV auch alten Wein in neuen Schläuchen verkauft, aber im Highend bereich haben sie besser geliefert. Mich hat die 7900XT(X) jedenfalls nicht geflasht. Der Sprung war mir von der 6900XT einfach zu gering und es hat sehr lange gedauert, bis man sagen konnte, dass die 7900XT(X) im Licht PL die bessere Wahl sind. Dazu werden die Karten halt immer teurer. Die wenigsten haben mal eben 500 oder gar 1000 Eur für ne Graka über. 500 vielleicht noch, aber dann muss der Leistungssprung auch passen.
 
  • Gefällt mir
Reaktionen: M11E und Mr. Vega
PeacemakerAT schrieb:
Undervoltet mit 200W Verbrauch hat die 7800XT nahezu die selbe Performance wie die 4070
siehe ...
Dann soll AMD die Karte "undervoltet" Serienmäßig bringen, dann wird die auch gekauft.

Ansonsten, irgendwelche Bastellösungen, mit Standardlösungen zu vergleichen ist wie Bananen mit Äpfeln zu vergleichen.
 
  • Gefällt mir
Reaktionen: BernmanHH
Convert schrieb:
Ansonsten, irgendwelche Bastellösungen, mit Standardlösungen zu vergleichen ist wie Bananen mit Äpfeln zu vergleichen.
Mir gings eher um das Argument das die 7800XT @ 200W zu wenig Leistung hat. Das stimmt so nicht und wieso die Karte mit den Betriebsparametern rausgekommen ist, hat wohl eher damit zu tun das sie zumindest ein minimales "Plus" gegenüber der 6800XT brauchte ;-)
 
  • Gefällt mir
Reaktionen: Eli0t
AMD hatte schon immer mit Treiber Problemen zu kämpfen gehabt. Auch das sie immer mehr als nvidia gefressen hatten war der Fall. Nur damals gab es noch ordentlich mehrleistung weshalb einige Fans das verzeihen konnten. Nun ist dies halt nicht mehr der Fall. Nun wird es immer schwieriger werden. Auf ein Wunder braucht amd nicht zu hoffen. Zumal Intel immer weiter aufholen wird. Das heißt die stecken in einer Zwickmühle. So lange wird Intel nicht brauchen. Und ja man liest gutes bei Intels neues gpus. Die optimieren immer stärker. Und die Leistung steigt immer weiter auf Intels Seite. Ja das passiert wenn man sich immer mehr als andere hersteller rein hängt. Aber noch ist Intel nicht da wo sie selbst gerne sein möchten.
Aber das überholen bei amds gpu passiert irgendwann das ist sicher.
 
  • Gefällt mir
Reaktionen: M11E und DarkHazard
Affenartig schrieb:
Meine größte Sorge ist, dass AMD das GPU-Geschäft irgendwann völlig streicht.
Das nicht. Man konzentriert sich halt auf den Profi Markt und die Gamer kriegen die Reste.
 
  • Gefällt mir
Reaktionen: Mr. Vega
engineer123 schrieb:
Komisch, wenns so einfach ist, und mit Multi-Chip nichts zu tun hat...
An welcher Stelle schreibe ich, dass es einfach ist? Ich schreibe zum Ende, dass eine Multi-Chip-GPU, die Entwickler immer noch vor einige Probleme stellt, die auch schwer zu lösen sind.

Du hast hier SLI/Crossfire erwähnt, was Multi-GPU-Designs sind, zwei dedizierte GPUs sollen zusammen arbeiten. Hier ist die Synchronisation der GPUs die große Herausforderung. Beide GPUs werden für sich angesprochen - auch im SFR-Modus - und entsprechend ist die Kommunikation hier sehr wichtig, die Kommunikation erfolgt auf Software-Ebene und muss da entsprechend auch gepflegt werden. Dazu kommt die Länge der Signalwege und wie die Kommunikation stattfindet.

Eine Mutli-Chip-GPU erscheint nach außen als eine GPU. Natürlich müssen auch hier die Daten der einzelnen GCD (AMD) synchron gehalten werden, nur gibt es hier ganz andere Möglichkeiten, da man auf einer ganz anderen Ebene diese Probleme bereits angehen kann. Die Kommunikation zwischen den GCDs kann hier - wie bei MI300X - über ein Base-Tile stattfinden. In den Base-Tiles könnten die Memory-Controller und der L3-Cache unterbebracht sein, mehre Base-Tiles werden dann per Cache-Link verknüpft werden und auf den den Base-Tiles kommen die GCD.

Hier müssen dann entsprechend für die Zukunft eher die Latenzen zwischen den Base-Tiles "einkalkuliert" werden und die Infrastruktur zwischen den Caches darauf ausgelegt werden. Das sind andere "Herausforderungen" als bei einem Mutli-GPU-Design.
engineer123 schrieb:
fragt sich nur wieso es AMD und Nvidia noch nicht in einem Serienprodukt released hat.
Schau dir die GeForce RTX 4090 an und wie diese aktuell skaliert. Gleicher Takt wie die 4080, aber 60 % mehr Shader, am Ende kommen im besten Fall aber nur 35 % an und es gehen 25 % verloren.

Hier besteht ein Auslastungsproblem. SIMD/SIMT haben immer die Limitierung, dass die Rechenwerke pro Kern entsprechend gefüllt werden müssen, damit sie effektiv genutzt werden können. Dazu kommt, dass man auch genug Threads braucht, damit man eine GPU auslasten kann.

Die Auslastung ist bereits heute ein akutes Problem für AMD und NVIDIA, bei einem Multi-Chip-Ansatz würden dann deren Probleme noch dazu kommen, die dann das Problem komplexer machen.

Selbst wenn AMD oder NVIDIA die "Probleme" des Multi-Chip-Design vollkommen im Griff haben und theoretisch eine 90 - 95 % Skalierung erreichen, würden die Probleme der Auslastung hier nun zunehmen, weil, man entsprechend viele Threads und Daten benötigt.

NVIDIA hat aktuell bereits mit einer RTX 4090 Probleme, die Auslastung so hinzubekommen, dass man sich den Rohdaten ansatzweise entsprechend absetzten kann. AMD würde mit einer fiktiven Navi31+ vor den gleichen Problemen stehen. Man hätte dann aber den Nachteil, dass man ca. 10 % an Leistung "verliert".
 
  • Gefällt mir
Reaktionen: cbmik, Schinken42 und Mr. Vega
Quidproquo77 schrieb:
Die 7900XTX ist alle Ratings miteinbezogen insgesamt schwächer und leidet an AMD´s Softwareschwäche bzw. Upscaling Qualität, da ist Nvidia für die meisten Nutzer momentan die bessere Wahl, das muss man sich auch als AMD User eingestehen.
Vom Preis her finde ich die Karte mit 24GB und einer Rasterleistung leicht über der 4080 persönlich schon interessanter, da ich auf RT noch keinen Wert lege.
Wenn man Wert auf RT legt und auf die Nvidia Features nicht verzichten kann, die 4080 durchaus.
Meine Aussage war aber das die jeweiligen AMD Karten günstiger sind als das Konkurrenzmodell, was eben auch bei der 7900XTX zur 4080 der Fall ist. Gründe hat dieser Unterschied natürlich.
 
  • Gefällt mir
Reaktionen: Quidproquo77
@xarfei Ein kurzer ad hoc Laien-Vergleich der relativen Entwicklung (edit: der AMD Implementierung):

Ich habe testweise absichtlich ein Model genommen, welches nicht von Shark Studio nativ implementiert ist (Anything V3) und auf der DirectML und auf der Vulkan shader Version von Shark Studio (Nod AI, mittlerweile teil von AMD) laufen lassen:

DirectML: ~0.75 it/s
Vulkan: ~4.5 it/s

1698084715704.png1698084719911.png

Bitte steinige mich nicht, falls ich groben Unfug verzapft hab. Bin noch ziemlich neu in der Materie. Bei ROCm gibt es noch einschränkungen unter Windows, die ich noch nicht ganz durchdrungen habe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mr. Vega
Der Nachbar schrieb:
AMD rettet derzeit der Xilinx Kauf, nur sollte AMD Xilinx
Nicht nur, ein Faktor. Auch das Epyc Lineup und auch wie gesagt das Konsolen Geschäft.
Abgesehen von der RTG geht ist AMD alles Andere als schlecht aufgestellt. Hier gab es bereits deutlich schlechtere Zeiten.
Die RTG wird abseits von nur Gaming sicher auch weiter sehr aktiv sein. Was ja auch der Zukauf von Nod.AI zeigt. Nur eben eben eher Radeon Pro, MI Instinct usw.

Intel entlässt ja auch mehr als das sie einstellen.
 
michelthemaster schrieb:
Ich hatte viele Nvidia-Karten und nun auch viele AMD-Karten. Funktioniert beides. Man sollte keine Religion daraus machen. Auch Nvidia kocht nur mit Wasser.
Ich hab 4x AMD versucht: HD 4770 hatte komische Grafikbugs in ArmA 2, Vega Strix 64 stürzte ab wegen Leistungsspitzen und überhitzung und die Radeon VII hatte miese performance und war laut wie ne Kreissäge.

Aktuell hab ich ne 7900XT drin, aber die hat hohen Stromverbrauch im idle, aber sie funktioniert immherin.
 
Smartin schrieb:
Ich denke, da muss man sich schon ehrlich machen.
Das hat mit ehrlich nicht viel zutun.
Natürlich hat die Preisdifferenz ihre Gründe.
Sachlich einfach nur den Preis betrachtet sind die entsprechenden Radeons günstiger in der Anschaffung als ihre Pendant.
Das warum, ist nochmal ein weiteres Thema.
 
SpartanerTom schrieb:
Bitte steinige mich nicht, falls ich groben Unfug verzapft hab. Bin noch ziemlich neu in der Materie. Bei ROCm gibt es noch einschränkungen unter Windows, die ich noch nicht ganz durchdrungen habe.
Die ROCm Api gibt es eigentlich noch nicht unter Windows. Nur die HIP API die ein Bestandteil der ROCm APi ist. Full ROCm für Windows soll noch 2023 kommen.
 
  • Gefällt mir
Reaktionen: Mcr-King und SpartanerTom
@xarfei Ja das ist mir schon klar, deswegen hab ich ja geschrieben es geht um den relativen Fortschritt der AMD Implementierung. (Edit: Ok habe es nicht so klar formuliert und nur "relative Entwicklung" geschrieben, habe den Post ergänzt).

@Next_Us Ja ich hab da nicht so genau unter die Haube geschaut, Shark Studio hat da einen Toggle für und habs dort nur gesehen:

1698085934194.png
 
  • Gefällt mir
Reaktionen: Mr. Vega
Zurück
Oben