News GPU-Team: AMD in China dementiert Gerüchte über Entlassungen

InvalidTexture schrieb:
Man kann die CPU-Sparte nicht mit der GPU-Sparte vergleichen. Die Leute haben Ryzen gefeiert, weil es nach Jahren wieder Konkurrenz gab, obwohl zu Beginn die Ryzen CPUs schlechtere Performance hatten, vor allem im Gaming Bereich. Aber die meisten hatten einfach keinem Bock mehr auf Intel.

stimmt so nicht. Was ryzen so einen Schub gegeben hat war die brutale Preis/Leistung. high end Boards unter 300€, normale Boards zwischen 80 und 130€. 6 kerner für 200€ und 8 Kerner für 330€ zum Release, danach 6 kerner für 120€ und 8 Kerner für knapp über 200€ - meanwhile Intel 340€ für den 4kerner 7700k.

ryzen wurde nicht aus dem blauen heraus so groß, sondern weil AMD viele Kerne für wenig Geld geboten hat - sprich: Preis Leistung.

eine 5700xt für 500€ zum Release, dann einen Tag später auf 450€ "runterjebaited", ist als Nachfolger der rx580 für ursprünglich 230€ einfach ein Witz. die 5500xt ist als Produkt im Preissegment der rx580 kläglich gescheitert.

Die 5700xt hatte amd für 360€ bringen müssen, die 5700 für 310€, dann wärs auch was mit den verkaufszahlen geworden - wenn man gleichzeitig nicht noch das Problem mit den Blackscreen crashes gehabt hätte.
 
Wie ein anderer Schreiber schon sagte, so lange AMD akzeptable Karten bringt die günstiger sind, mit mehr Speicher und besserem BUS als NV haben ist mir das egal.
Völlig egal ob ich nun mit 140 oder 180FPS Spiele da merke ich keinen Unterschied.
Früher hieß es immer alles über 25FPS ist für das Auge flüssig.
Wenn ich für 140FPS 500€ weniger Zahle kann ich damit gut leben und auf 180 verzichten, bringt mir nichts.
 
  • Gefällt mir
Reaktionen: Enyo79
Mimir schrieb:
AMD hat einfach gepennt und sich beim Upscaling sogar von Intel überholen lassen. Deren Fallback Lösung für nicht-Intel GPUs sieht oft besser aus, als FSR.
Ganz ehrlich. Was das angeht bin ich überhaupt nicht empfindlich. Hab noch ne Series S zuhause. Was meinst wie es da flimmert...
Und wieso ich zu AMD gegriffen habe: wie soll AMD aus dem Loch kommen, wenn jeder zu Nvidia greift?
Außerdem war die 3060Ti im Vergleich für mich die schlechtere Karte
 
  • Gefällt mir
Reaktionen: Holzkerbe
SpartanerTom schrieb:
Ich glaube bei den Konsolen ist für AMD (v.a. in der Vergangenheit) weniger die Marge als der tatsächliche garantierte Umsatz/Cashflow extrem wichtig gewesen.
Dazu kommt auch, dass Sony als auch MS Entwickler sowohl auf Hardware-Ebene als auch Software-Ebene abstellt, die AMD auch für andere Produkte nutzen kann, besser das, was dabei herauskommt.

engineer123 schrieb:
Die Idee von mehr als einem Kern in ner GPU ist doch schon alt, und auch mit den Modellen
Dual-GPU sowieso Crossfire/SLi industrialisiert worden.
Auch wenn die Grundaussage deines Beitrages stimmt, ist dein Beitrag in weiten Teilen falsch, weil er von den falschen Voraussetzungen ausgeht und hier verschiedene Probleme und verschiedene Ebenen mischt.

GPUs waren bereits in den 90er "Mehrkern-Prozessoren", weil sich gerade Aufgaben bei der Bildgenerierung sehr gut skalieren lassen. SIMD und SIMT sind hier heute die vorherrschenden Konzepte. 3dfx hatte entsprechend in der Prä-DX7-Ära auch ein einfaches System, wie die Aufgaben zwischen zwei GPUs quasi perfekt geteilt werden können und auch zwischen mehr Kernen. Voodoo 5 5500 als auch die Voodoo 5 6000 funktionieren wunderbar.

Die ersten Probleme - auch mit der "Synchronisation" kamen erst mit DX7 und DX8, aber auch hier hatte 3dfx beim Rampage eine relativ gute Lösung gefunden, in dem man ein getrennte GPU-Architektur entworfen hat. Eine "GPU" (in dem Fall Geometry-Processing-Unit) und eine "PPU" - Pixel-Processing-Unit. Die GPU hätte die T&L-Anweisungen sowie die Vertex-Shader ausgeführt und die PPU dann die Polygone gerastert, mit Texturen versehen und entsprechend die Pixel-Shader ausgeführt.

Das wäre dann in der Form sogar bis 2005/2006 und DirectX9.0c und dem Shader-Modell 3 relativ gut gegangen, bis Direct9.0c quasi die klassische Grafikpipeline über den Haufen geworfen hätte.

Aber auch dafür gab es bei 3dfx sogar schon erste Überlegungen. Es ist seit dem zwar schwerer geworden, aber die Probleme zwischen einem wirklichen "Multi-Chip"-GPU-Design kannst du nicht mit den Problemen eines Multi-GPU-Designs vergleichen.

Crossfire und SLI haben und hatten damals ganz andere Probleme. Während in der Zeit von DX8 und auch bedingt DirectX 9 AFR teilweise sehr gut funktionierte, fingen hier die Probleme erst mit dem Aufkommen der temporalen Effekte an, die heute aber allgegenwärtig sind in vielen Effekten, ohne dass man es mitbekommt. In diesem Fall gibt es - auch beim SFR - natürlich ein Problem mit der Datensynchronisation, soweit richtig, aber das liegt eben am Multi-GPU-Ansatz und den Wegen zwischen den Chips und den dadurch entstehenden Latenzen.

In einem echten Multi-Chip-GPU-Design können die Probleme der Synchronisation als auch Latenz jedoch ganz anders gelöst werden und sind daher quasi "nicht existent". Denn die Probleme der Synchronisation der Daten und der Latenz hat man heute sogar in monolithischen GPUs, da die Datenpfade entsprechend weit sind und die Caches viele Rechenwerke auf einmal versorgen müssen.
engineer123 schrieb:
Ergebnis: Es funktioniert einfach nicht richtig, weil man Stand heute es nicht geschafft hat die Arbeit
der mehrfach-Kerne voll und zu 100,00% zu synchronisieren.
Micro-Ruckel-ruckel-ruckel.
Was erneut primär für ein Multi-GPU gespannt gilt, besonders wenn es im AFR-Modus arbeitet. Würde man hier bereits in einen SFR-Modus gehen, könnten einige Probleme umgangen werden, gleichzeitig wäre aber keine Skalierung von bis zu 100 % mehr möglich.

Gerade ein SFR-Modus lässt sich heute auf Ebene des Treibers aber immer leichter umsetzen, da egal ob NVIDIA, Intel oder AMD, alle Grafikkarten mit einem Tiled-Based-Renderer arbeiten und das zu berechnende Bild in entsprechende Kacheln geteilt wird, die als Arbeitspakete von der GPU abgearbeitet werden.

Und hier ist dann auch der entscheidende Punkt, warum man ein Mutli-GPU-Design nicht mit einem Mutli-Chip-GPU-Design vergleichen kann. AMD hat nicht umsonst ein Patent in diesem Bereich, der die Kommunikation mehrere GPUs über einen L3-Cache definiert, hier kann man theoretisch aber auch den L2-Cache des GCD bei AMD nehmen, die über einen entsprechenden Link verfügen, der beide L2 als "Datenautobahn" verbinden. Klar entsteht dann eine gewisse Latenz zwischen dem L2-1 und dem L2-2, nur kann entsprechend eingepreist werden. Am Ende skalieren dann zwei GCD nicht zu 100 % - was ohne hin einen absoluten Idealwert darstellt, der kaum oder nie erreicht wird - aber vielleicht zu 80 - 90 %, was auch sehr gut ist.

Ebenso könnte man - AMD zeigt es bei CDNA3 - auch noch mal auf ein anderes System setzten und den Infinty-Cache zusammen mit dem RAM-Controller in ein Basetile auslagern und dann die GCDs auf diese setzten, was die Signalwege verkürzt und den Infinity-Cache zur Synchronistation nutzt.

Klar, AMD müsste hier natürlich noch einige Probleme lösen, die durchaus auch harte Nüsse sind, aber die Probleme einer echten Mutli-Chip-GPU lassen sich nur bedingt mit denen einer Mutli-GPU vergleichen. Eine Mutli-Chip-GPU ist nach "Außen" im Software-Stack nämlich eine GPU, keine Mutli-GPU, wie es bei Crossfire und SLI der Fall war.
 
  • Gefällt mir
Reaktionen: Teeschlürfer, Eli0t, M11E und 3 andere
andi_sco schrieb:
Gewinn ist das, was am Ende übrig bleibt.
Aber in den Verkauf zählen auch R&D Kosten rein. Oder glaubst du, AMD ist so blöd und schiebt die Stunden für die Entwicklung auf die Kostenlose Bank?

Das ist klar, aber der Umsatz ist doch nicht die richtige Kennzahl. Du kannst eine Milliarde Umsatz haben und machst trotzdem Verlust. Entsprechend hat man dann weniger Geld für neue Produkte, Forschung und Co. Du musst nach allen Kosten einen Gewinn mit deinen Produkten machen.

Ich meine mit Gewinn nicht das, was am Ende an die Aktionäre ausgeschüttet wird und versteuert werden muss.
 
Postman schrieb:
Für die Dummheit in der roten Führungsetage kann grün auch nichts dafür.
Naja, wenn es so einfach wäre, würden wir nicht nur 2/3 Firmen haben die Grafikkarten herstellen. Und wenn man einfach nur genug Kohle auf die Entwicklung schütten muss, müsste Intel ja mit Leichtigkeit konkurrenzfähig sein.
 
  • Gefällt mir
Reaktionen: M11E und cbmik
Skudrinka schrieb:
Sind Marktanteile nicht wichtiger, als einen Gewinn?
ja genau so funktioniert Marktwirtschaft!
Deshalb ist Apple mit ihren 30% Marktanteil vs 70% android ja auch eigentlich eine ganz miese Firma, denen gehts richtig schlecht!

Bezüglich Nachrichten: schade schade.
Vielleicht hört aber jetzt auch mal die Lobhudelei auf Su auf und man sieht, dass es auch ohne Koduri nicht läuft.
 
Die Software ist das Problem: Immer mehr Tools setzen auf CUDA, AMD hat komplett den Anschluss verloren weil die ihre Consumerkarten bis vor ein paar Monaten nicht supported haben. Und dann über 1000 Euro für eine GPU auf der man nur spielen kann? Viele die sich sowas leisten können haben wahrscheinlich eh einen technischen oder wissenschaftlichen Beruf und wollen auf sowas nicht verzichten.

AMD wird sich mehr auf iGPUs konzentrieren, die 780m ist eigentlich Konkurrenzlos. Denke in den nächsten Jahren werden dedizierte AMD Karten mehr ein Prestigeobjekt als Nebenentwicklung. Die Treiber vermitteln ja eh schon ständig das Gefühl von einer Notbesetzung...
 
  • Gefällt mir
Reaktionen: Nowareeng
Haldi schrieb:
Man muss da zwischen Gewinn und (operativem) Cashflow unterscheiden, wenn man Unternehmen auf eine solche Preisstrategie untersuchen will. Der Gewinn kann z.B. aufgrund von Steueroptimierungen künstlich niedrig gehalten sein, oder es könnten Abschreibungen sein.
Zudem: wenn ein Unternehmen mehrere Sparten hat, kann es schwierig werden, das in einzelnen Bereichen nachzuweisen.
 
Nvidia ist halt das rundere Produkt in dieser Generation in wirklich allen Belangen. Aktuell würde ich auch zu Nvidia greifen, obwohl ich AMD mehr lieb habe.

Warten wir mal die nächste Generation ab...


Allgemein hat Nvidia den besseren Ruf. Ich kriege das immer wieder mit das lieber RTX gewählt wird, weil immer besser. Marketing läuft...
 
  • Gefällt mir
Reaktionen: fox40phil und Postman
Skudrinka schrieb:
Nvidia kann sich das aus unerklärlichen Gründen leisten. Selbst annähernd das doppelte zu verlangen.
AMD mMn. nicht.
So unerklärlich sind die Gründe eigentlich nicht, aber diese Diskussion werde ich gar nicht erst anfangen. ;)
 
Man darf nicht vergessen, dass AMD bei immer noch auch das Geschäft mit Xbox und Playstation hat.

Würde AMD aus dem Markt wegfallen, wäre Nvidia unweigerlich Monopolist und müsste zerschlagen werrden. Das würde eine jahrelange Flaute bei den GPUs bringen und die Aktie splitten (kaufen ^^).
 
InvalidTexture schrieb:
Ich glaube AMD hat aufgehört, weil es offensichtlich ist, dass AMD in der GPU-Sparte nicht gewinnen kann. Egal ob AMD bessere Performance, Preis/Leistung oder Effizienz aufweist, die Masse kauft immer Nvidia. AMD hat somit keinen Grund mehr aggressiv und innovativ zu sein, stattdessen bleibt AMD immer 1-2 Schritte zurück und sackt die übrigen Marktanteile mit günstigen GPUs ein.
Ja verstehe ich aber das Problem ist das war man auch gegenüber Intel und man hat aufgeholt und Überholt.

Was mich stört ist nicht dass man sich auf profitablere Bereiche konzentrieren würde. Was mich stört ist dass man aktuell in vielen Bereichen zurückfällt. Gaming GPUs, Professionelle GPUs sowieso.

Aber eben auch im Bereich Mobile CPU wo der OEM Markt einer der Größten ist. Die Ryzen Mobile wären besser als nahezu alle Intel CPUs aber man ist kaum in Notebooks vertreten da man oft nicht liefern kann oder nicht genügend Arbeit bei den OEMs leistet. Das ist dramatisch...

Man ist aktuell letztendlich nur im CPU Server sowie Desktop Markt - welcher als DIY verhältnismäßig klein ist - gut vertreten.

Es braucht also mehr als nur den Server Markt bei CPUs. Mann muss bei Server GPUs als Markt gewinnen. Und vor allem muss man auch bei Notebooks CPU und GPU Anteile gewinnen. Ob dabei dediziert oder als Mega-APU ist egal aber das geschieht aktuell garnicht.

Und auch Playstation / Xbox ist kein Selbstläufer - Hier könnte auch Intel mit x86 APUs sowie Qualcomm und Nvidia mit ARM APUs plötzlich Marktanteile abgreifen und dann wird es eng wenn man sonst nichts mehr hat...

Und das macht mir Angst - es ist nicht ein Fokussieren auf gewisse Märkte - sondern eine generelle Trägheit. Intel und Nvidia stehen nicht still und was man nicht vergessen darf: ARM wird in den Notebook und Tablet Markt drängen und ggf. auch irgendwann wieder bei Servern angreifen.
 
Convert schrieb:
Nur das die dann deutlich weniger Leistung geboten hätte, als die RTX4070. Lohnt sich also nicht. Abgesehen davon hätte man auch eine RTX4080@ 200W betreiben können. Lohnt sich auch nicht...
Undervoltet mit 200W Verbrauch hat die 7800XT nahezu die selbe Performance wie die 4070
siehe ...
 
aLanaMiau schrieb:
Die Software ist das Problem: Immer mehr Tools setzen auf CUDA, AMD hat komplett den Anschluss verloren weil die ihre Consumerkarten bis vor ein paar Monaten nicht supported haben. Und dann über 1000 Euro für eine GPU auf der man nur spielen kann?
genau der grund wiso ich meine 6900xt verkauft hab und mir eine nvidia geholt habe. das ganze ai zeug läuft offline aufm pc ausschließlich über CUDA. und selbst beim spielen ist dlss (3.5, FG) dem amd fsr2 mind 2 generationen überlegen. das einzigste spiel wo fsr2 nicht ne qualität produziert das man gleich aufn bildschirm kotzt ist diablo4. Hitman 3 oder Cyberpunk 2077 mit fsr2 kann man sich nicht antun.
 
  • Gefällt mir
Reaktionen: JohnWickzer
@xarfei Stimmt so nicht vorbehaltlos. Ich betreibe hier zum Beispiel fröhlich Stable Diffusion auf meiner 6800.
 
  • Gefällt mir
Reaktionen: Eli0t
stable diffusion über directml auf der 6900xt war unerträglich langsam. gibts inzwischen rocm support?
 
Tornavida schrieb:
Und ebenfalls no offense, auch Nachzügler wie du ,die 2 Jahre alte Hardware zu diesen Preisen kauft sind Teil des Problems ;):).
Genau genommen ein Jahr, da die 6950 letztes Jahr im Mai veröffentlicht wurde, aber ich versteh schon was du meinst :p
 
  • Gefällt mir
Reaktionen: Tornavida
C0rteX schrieb:
Jensen denkt sich wahrscheinlich, die 15 Prozent klingen doch nach einer "Super" Preiserhöhung für den Refresh.

Ich hatte weder mit der 6700xt, noch jetzt mit der 7800xt Probleme. Ganz im Gegenteil eigentlich. Die Nitro läuft bei 250 Watt mit 10 bis 12 Prozent oc perfekt. Da komme ich der 4070 ti für 50 Prozent mehr Euronen ziemlich nahe und habe die 16 GB für den OLED TV. Nach Verkauf der alten Karte für 300 Euro ein 60 Prozent Leistungsplus ist heutzutage schon fast ein Sonderangot.

Ich kaufe ja schon aus Prinzip kein Nvidia mehr. Man kann nur mit seiner Kaufentscheidung Einfluss nehmen.

Für uns ist das alles schlecht. Nividia ist doch jetzt alles egal. Der Gewinn kommt über die Datacenter rein und die Gamer müssen bluten.
Ja hatte eine Zeit lange auch bei ähnlicher Leistung aus Prinzip und um den Markt zu stärken eher auf Nvidia verzichtet. Aber AMD hat es sich auch selbst beim guten Willen verscherzt und alles andere als kundenfreundlich agiert.

Aktuell sehe ich die einzige Chance in der kompletten Zurückhaltung beim Kauf... Werde zu den Preisen / Leistungssprüngen einfach nichts kaufen und lieber ganz mit dem Gaming aufhören. Wenn dies mehr Menschen tun würden wäre es ein starkes Signal und würde eine Veränderung bewirken. Aber die letzten Jahre haben gezeigt der Großteil wird dem nicht so folgen...
 
  • Gefällt mir
Reaktionen: cbmik
@xarfei Ja gibt es aber meines Wissens nach sinnvoll nur unter Linux. Geschwindigkeitsvergleich kann ich jetzt spontan nicht ziehen. Ich vermute da stark, dass die native CUDA Implementierung immer noch deutlich flotter unterwegs ist.

Ich wollte nur diesen schwarz/weiß Pauschalaussagen entgegnen. Ob es letztlich dann "sinnvoll" nutzbar ist, müssen Leute entscheiden die mehr von der Materie verstehen.
 
Zurück
Oben