News PlayStation 5: Mit AMD Zen+ und Navi zum Leidwesen von Vega

Ich komme hier ja aus dem Kopfschütteln nicht mehr raus.

Wieso heißt die Entwicklung einer Grafikarchitektur mit einem großen Kunden, dass es keine leistungsstarken, dedizierten Grafikkarten für PC-Spieler geben wird?
Das Gegenteil ist der Fall! Durch Sony wird der Fokus bei Navi auf FPS liegen und guter Optimierbarkeit für Grafikanwendungen.
Sony hat kein (bzw wenig) Interesse an KI-optimierten Karten. Sondern auf Preis, FPS, Energiesparsamkeit und guten Fertigungsausbeuten.

Und wenn AMD nicht ganz doof ist, kombinieren sie die Zen-Eigenschaften mit Navi.

Beispiel: Ein Navi-Core besteht aus 2048 multifunktionalen Shadern ( gerne auch mit Tensor-Operationen für KI) und bietet wie Zen Infinity Fabric.
Ergebnis: Für Sony werden zwei Zen-Chips und zwei Navi-Chips auf eine Platine gelötet. (Und man hat direkt shared Memory mit hohem Durchsatz und niedrigen Latenzen)
Für HPC in Großrechnern für KI wird ein Zen-Core und drei Navi-Cores auf eine Platine gelötet.
Für Server werden weiter 4 Zen-Cores auf eine Platine gelötet.

Und für Gamer?
Werden zwei, drei oder 8 Navi-Cores auf ein PCB gelötet, ein Übersetzerchip von Infinity Fabric auf PCIe5 x16 und da steht die Grafikkarte mit aktuellester Architektur in 7nm, KI-Befehlen und 16000 Shadern. Prost Mahlzeit, Nvidia.
Ausbeute geil, wegen kleinen Chips, eine Fertigungsstraße für Navi-Cores ist billig, austauschbar zwischen Sony, iGPUs, APUs und dGPUs.

Das würde übrigens auch in die richtige Richtung zielen, wenn Intel bei den Grafikkarten einsteigt, da man bei AMD flexibler wäre und GPUs schneller auf neue Anforderungen anpassen könnte. Die ganze Logistik bei weiterentwickelten "Navi+"-Kernen würde vereinfacht werden.


Aber nein,
AMD wird keine Grafikkarte mehr verkaufen (außer den vielen Millionen an Sony und potenziell wieder Microsoft und Nintendo),
AMD wird keine gute Architektur mehr bieten (weil Sony keine Ahnung von Spielen hat und so schlechte Anforderungen stellt)
AMD wird keine Optimierungen von Entwicklern mehr erfahren (weil sich mit Spielen, die auf PS5 und Xbox2 nicht oder schlecht laufen mehr Geld verdienen lässt)
AMD wird keine Enthusiasten-dGPUs mehr anbieten (weil ein Chip für Sony/MS nicht skaliert werden kann und magischerweise nicht auf ein PCIe-PCB gelötet werden kann


Wenn AMD die Sache richtig angeht (knappes Geld und mangelnde Ressourcen sehe ich da als größte Bedrohung, nicht die Ideen oder die Taktik) könnte Navi der große Wurf werden, so wie letztes Jahr Zen.
 
  • Gefällt mir
Reaktionen: Thraker, edenjung, LamaTux und 2 andere
Booby schrieb:
Du weisst gar nicht wie lächerlich du dich mit der Aussage machst.
Du kannst das offensichtlich nicht beurteilen!

Fortatus schrieb:
Wieso heißt die Entwicklung einer Grafikarchitektur mit einem großen Kunden, dass es keine leistungsstarken, dedizierten Grafikkarten für PC-Spieler geben wird?
Naja, diverse Seiten streuen gerne negative Gerüchte, ob die Sinn ergeben ist egal, wird halt trotzdem verbreitet.
Und weil die meisten Gamer von diesen Dingen sehr sehr wenig verstehen, funktioniert es halt:\

Ein Navi-Core besteht aus 2048 multifunktionalen Shadern ( gerne auch mit Tensor-Operationen für KI) und bietet wie Zen Infinity Fabric.
Eine CU (das meinst du wohl mit Core?) besteht aus 64 Shadern.
Die IF ist schon bei Vega dabei.

Werden zwei, drei oder 8 Navi-Cores auf ein PCB gelötet
Das geht aber nur mit einem SI-Interposer, wäre also sehr sehr teuer.

Was genau meinst du mit Navi-Core?
Irgendwie ist das für mich jetzt überhaupt nicht ersichtlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker und 9Strike
donend schrieb:
Das ist schlichtweg eine Optimierung und keine Änderung
Das ist Haarspalterei. Was ist der Unterschied zwischen einer Optimierung und einer Änderung. Semantisch betrachtet ist eine Optimierung zwangsläufig eine Änderung.
Ja man kann mit mehr Takt für kürzere Laufzeiten sorgen, aber die Steigerungen in diesem Fall sind deutlich überproportional.

donend schrieb:
Man kann also pro Instruction mehr Zyklen abarbeiten
Das ist schlicht falsch, die benötigten Zyklen sind taktratenunabhängig. Durch einen höhereren Takt, verringert sich die Zeit bis die benötigten Takte abgearbeitet wurden.

Fertigungsverbesserungen sind oft notwendig für schnellere Architekturen, aber nicht hinreichend (über proportionale Steigerung zum Takt hinaus).

Whiskey Lake schrieb:
Du kannst das offensichtlich nicht beurteilen!
Also ich habe schon mal FPGAs beschrieben und du?
 
Zuletzt bearbeitet:
Qarrr³ schrieb:
AMD hat deutlich mehr vom Mining Markt profitiert als Nvidia. Die Karten waren immer ausverkauft. Sie haben bis heute trotz der alten Technik sehr gut verkauft.

Das hat eher daran gelegen, dass AMD nicht liefern konnte, nicht weil so irre viel Karten weggegangen wären. Und selbst wenn, wär es eher Glück gewesen als Ingenieurskunst oder gute Marktstrategie.

rg88 schrieb:
Woher willst du das wissen wie die Margen sind? Ich wüsste nicht, dass AMD die jemals veröffentlich hat.

Man sehe sich die letzten Quartalszahlen an, und merke, dass trotz guter Produkte im CPU Bereich kein bzw kaum ein Plus geschrieben wird. Ryzen wird mit paar hundert € pro Chip sicher kein Minus einfahren. Wo sich die Schwachstelle befindet ist offensichtlich.

rg88 schrieb:
Die Umsätze und Margen und vorallem GEWINNE bei der Semi-Custom-Sparte haben AMD über Wasser gehalten um die Durststrecke bei Bulldozer irgendwie durchzustehen und die Verluste teilweise abzufedern.

Welche Gewinne? Wenn dann offensichtlich nicht erwähnenswert, sonst würde man den Einfluss in den Quartalszahlen sehen. Aber okay, immer noch besser als Nvidia hat die ganzen Konsolenchips. Ist nicht ein allzugrosser Kritikpunkt.

rg88 schrieb:
Hätten sie? Wer sagt, dass dann nicht genauso Vega rausgekommen wäre, nur halt zusätzlich noch als 2048 Shader Mittelklasse, ohne nennenswerte Vorteile ggü. Polaris?
Das beste P/L-Verhältnis wäre abgesehen davon nur für den Kunden ein Vorteil. Sowohl für die eigenen als auch für die der Konkurrenz. Milliardengewinne würde man damit aber mit absoluter Sicherheit nicht schreiben.
Polaris hatte vor Mining auch ein gutes P/L. Sie haben jetzt auch Quartale lang absolut jeden Chip verkauft, den sie überhaupt produzieren konnten. Die Preise dafür waren sicherlich nicht nur bei den Karten an sich gestiegen, sondern auch bei den Chips die AMD liefert, also bei dem was AMD verlangt. Masse? Ja. Große Gewinne? Fehlanzeige.

Nvidia's Umsätze vom letzten Quartal, nach Sparte:

Gaming $1.739
Professional Visualization $254
Datacenter $606
Automotive $132
OEM and IP $180

So weit weg von meiner Aussage ist das nicht. Dieser Anteil vom Gaming Markt hätte AMD gehören können, WENN man sich ganz und gar auf's Gaming konzentriert hätte, anstatt Generation für Generation zu versuchen irgendeine Mischung zwischen Gaming und Compute zusammenzufrickeln. DAS ist mein grosser Kritikpunkt.

Nvidia hat eine höchst flexible Architektur entwickelt, die man mit wenig Anpassung von der hocheffizienten Gamingkarte bis zum Compute-Monster trimmen kann. AMD hat offensichtlich die Mittel im R&D nicht für selbiges. Auch zwei verschiedene Architekturen für jeweils Compute und Gaming zu entwickeln und zu pflegen, auf neue Fertigungsstrukturen abzustimmen, etc, ist offensichtlich nicht drin.

Also hätte man sich auf eins von beiden konzentrieren müssen. Gaming konnte man ja. Terascale mit VLIW5 hat mit Nvidia den Boden gewischt.
Mit GCN ist man bis jetzt, in der 5ten Fassung, eigtl nur noch stehen geblieben - magere Leistungsgewinne von Generation zu Generation, minimale Effizienzgewinne oder sogar -einbussen. Das ist ein gescheiterter Ansatz, der nicht hinzukriegen ist.


Naja. Nach Navi soll ja der Abschied von GCN kommen. Vll tut sich dann wieder mal was, im positiven Sinne. Intel hat sich von der Netburst Architektur lösen können, AMD in der CPU Sparte von Faildozer - vll schafft es die AMD GPU Sparte nun schlussendlich auch, den Hut auf GCN zu schmeissen.
 
Booby schrieb:
Das ist Haarspalterei.
Nein. Dann hätte man den Cache anderweitig angeordnet, dass Design grundlegend geändert. Hat man nicht, sondern lediglich die Latenzen reduziert. Das ginge auch mit geänderten "buffer size" Zuweisungen. In diesem Fall kann Zen+ bei gleicher TDP ca. 250MHz höher takten und diese Frequenzsteigerung wirkt sich auch auf Latenzen aus bzw. entspricht dies auch genau der Steigerung von ca. 3% bei der IPC. Wie viele auch falsch interpretieren ist trotz feinerer Fertigung in 12nm das Dices (2xCCX-Plättchen) nicht kleiner. Das hat insgesamt nichts mit der Steigerung der Skalarität eines Designs zu tun. Das Design und die Arch ist völlig identisch zu Zen (SR).

Zen2 hat abgeänderte Cores und bringt damit direkte Architekturveränderungen mit.
 
  • Gefällt mir
Reaktionen: 9Strike
@Whiskey Lake Was ich mit Navi-Core meine ist ein Gedankenspiel. Das Prinzip von Zen auf eine Grafikarchitektur angewendet.
2048 Shader (als sinnvoller Level willkürlich gewählt) werden zur kleinsten produzierten Hardwareeinheit kombiniert und sind so lauffähig. Kleinere GPUs sind durch teildeaktivierte Chips vllt noch möglich. Aber es werden immer diese Diea produziert (wie zur Zeit die Zen-Zeppelin-Dies) und dann kombiniert, um die jeweilige Ausbaustufe zu erreichen.
Wie gut das funktioniert zeigt Zen. Am Anfang hat Intel rumgeheult "zusammengeklebte Chips sind scheiße, nur unsere Riesenteile sind echte HP-CPUs, jetzt wollen sie AMD bei 20% Serveranteil aufhalten. Wäre gespannt, ob Nvidia das gleiche sagen wird.


Wenn man es mal abstrakter sieht sind GPUs Chips wie CPUs, nur mit viel weniger Befehlen, dafür mit viel mehr Kernen, für einfache, stark parallelisierbare Aufgaben.
CPUs haben wenige Kerne mit vielen Befehlen, die spezielle, kaum parallelisierbare Aufgaben schneller abarbeiten.
So bräuchte AMD jeweils einen Die (Navi und Zen), die sie beliebig kombinieren können.

Also eine Navi-GPU mit einem Die, wie die Ryzen-CPUs, für den Mainstream. Dann starke Gamer-GPUs mit zwei Dies ala Threadripper, und für die Enthusiasten, die mit der Geforce 3080TI mithalten wollen, quasi das Epyc-Pendant mit vier aktiven Navi-Dies.

Irgendwie hätte eine solchr Grafikkarte was von SLI/Crossfire früher, nur dass die gesamte Logik im Chip sitzt und für den Rest des Systems wie ein Chip aussieht. (Ryzen hat ja auch keine Treiber/" Mikroruckler"-Problematik, da die gesamte Logik im Deaign vorgesehen ist und in Silizium gepresst wird
 
Zuletzt bearbeitet:
Fortatus schrieb:
Und für Gamer?
Werden zwei, drei oder 8 Navi-Cores auf ein PCB gelötet, ein Übersetzerchip von Infinity Fabric auf PCIe5 x16 und da steht die Grafikkarte mit aktuellester Architektur in 7nm, KI-Befehlen und 16000 Shadern. Prost Mahlzeit, Nvidia.

Ausbeute geil, wegen kleinen Chips, eine Fertigungsstraße für Navi-Cores ist billig, austauschbar zwischen Sony, iGPUs, APUs und dGPUs.
Das soll dann beides wie funktionieren?
 
OK, du meinst also einfach nur mehrere kleine Dice.

Das wird AMD irgendwann eh so machen, wenn nicht schon bei 7nm, dann bei 5nm.
Mehr als ein 2er MCM wird es am Anfang aber nicht werden und im Vergleich zu Zeppelin müßte die IF noch einen etwas höheren Datendurchsatz erreichen.
 
  • Gefällt mir
Reaktionen: Mabot
Fortatus schrieb:
@Whiskey Lake Was ich mit Navi-Core meine ist ein Gedankenspiel. Das Prinzip von Zen auf eine Grafikarchitektur angewendet.

Wird leider noch nicht kommen, aber es läuft darauf hinaus. Fiji war HBM, VEGA war HBM+IF und jetzt fehlt noch HBM+IF+MCM :)

https://www.pcgamesn.com/amd-navi-monolithic-gpu-design

It’s definitely something AMD’s engineering teams are investigating, but it still looks a long way from being workable for gaming GPUs, and definitely not in time for the AMD Navi release next year. “We are looking at the MCM type of approach,” says Wang, “but we’ve yet to conclude that this is something that can be used for traditional gaming graphics type of application.”
 
  • Gefällt mir
Reaktionen: Mabot
stoneeh schrieb:
Nvidia's Umsätze vom letzten Quartal, nach Sparte:

Gaming $1.739
Professional Visualization $254
Datacenter $606
Automotive $132
OEM and IP $180

So weit weg von meiner Aussage ist das nicht. Dieser Anteil vom Gaming Markt hätte AMD gehören können, WENN man sich ganz und gar auf's Gaming konzentriert hätte, anstatt Generation für Generation zu versuchen irgendeine Mischung zwischen Gaming und Compute zusammenzufrickeln. DAS ist mein grosser Kritikpunkt.
Dolle Auflistung allerdings scheitert sie bei deiner Argumentation an 2 Punkten.

1. Es dürfte unmöglichs ein die Gaming von der Mining Fraktion zu trennen da beide die gleichen Karten und damit auch die gleichen GPUs kaufen. Dieser Punkt dürfte recht entscheidend sein weil bei AMD die Nachfrage das Angebot deutlich überstieg, die Preise in die Höhe schossen. Wer nicht mehr produzieren kann um die Nachfrage zu stillen kann wohl schlecht mehr verkaufen.

2. Die Erfahrung der letzten Jahre hat gezeigt das beim Großteil der Spieler offensichtlich kein ernsthaftes Interesse an einer kaufbaren Alternative besteht, jedenfalls nicht um sie zu kaufen sondern lediglich als Preisdrücker. Wie soll AMD in dem Umfeld von Anteilen profitieren wenn seitens der Kundschaft kein Interesse daran besteht?
 
  • Gefällt mir
Reaktionen: Thraker, LamaTux, jonderson und 2 andere
Whiskey Lake schrieb:
OK, du meinst also einfach nur mehrere kleine Dice.

Das wird AMD irgendwann eh so machen, wenn nicht schon bei 7nm, dann bei 5nm.
Mehr als ein 2er MCM wird es am Anfang aber nicht werden und im Vergleich zu Zeppelin müßte die IF noch einen etwas höheren Datendurchsatz erreichen.

Ich hoffe, das sie pro Pixel-Pipeline und Zubehör ein Chiplet nehmen. Das wäre ziemlich gut skalierbar.
 
But we've yet to conclude
hört sich auch wieder total schwammig an. Was wissen wir den gesichert über die PS5? Genau, nichts.

Das PS5-Custom-SoC-Gerede beruht bislang auf zwei Leuten mit ungenannter Quelle für ein System, das vllt erst 2020/21 kommt.
Offensichtlich wollen sie in diese Richtung gehen. Und vllt handelt es sich um Ablenkungsmanöver oder Navi wird die ersten Anpassungen in diese Richtung enthalten, die dann im Nachfolger entgultig im Vollausbau kommen.

Hier hat ja schon jemanf gepostet: Bisher war die Technik von neuen Konsolen ein Jahr alt oder weniger.
Wenn Navi 2019 kommt und die PS5 2020/21, dann kann da der Navi-Nachfolger drinstecken.
Gibt ja hier auch genug Leute, die bezweifeln, dass in der PS5 nur der Zen+ drinsteckt, anstatt Zen2 odet Zen2+.

Wenn sie schon lauffähige Zen2 haben, können sie auch ein paar Samples an Sony schicken. Wenn 2019 Navi in den Handel kommt und der Tapeout der Nachfolgerarchitektur auch in 2019 stattfindet, spricht nichts gegen einr Verwendung in der PS5 in 2020/21

Also: Keep cool.

Was ich ja eigentlich nur sagen wollte war, das AMD mit der Kooperation mit Sony und ihrer Roadmap Richtung noch mehr Modularität/Skalierbarkeit durchaus Chancen haben, weiter mit Nvidia konkurrieren zu können
 
Für ein GPU MCM auf Navi Basis fehlt es an Die-to-Die bidirektionler Bandbreite, die man auch auf Interposern nicht erreicht, denn GPUs brauchen eine deutlich höhere Systembandbreite. MCM für Navi ist Stuss. Vergesst das.
 
donend schrieb:
Hat man nicht, sondern lediglich die Latenzen reduziert
Wow... einfach so die Latenzen reduziert :rolleyes:
Als nächstes werden die einfach so die Leckströme reduzieren.
Und dann wenn noch Zeit ist werden sie einfach den Widerstand reduzieren.
Wir sind nicht an den Anfängen der CPU-Entwicklung, alles ist bereits möglichst optimiert.
Wenn keine Änderung am Chip notwendig wären, hätten sie keinen neuen Chip designen lassen. Man hätte einfach ein MicroCode-Update verteilt.
 
Der SOC der PS5 wird sicher in 7nm gefertigt werden.
Somit wird es mindestens znver2 werden, würde einfach keinen Sinn ergeben, da znver1 zu nutzen.

znver1 wäre für die Konsole sogar teurer als znver2, weil man znver1 bis jetzt nur für n14LPP und 12LP entwickelt hat.
Entweder wird es znver2 oder schon znver3!
 
donend schrieb:
Für ein GPU MCM auf Navi Basis fehlt es an Die-to-Die bidirektionler Bandbreite, die man auch auf Interposern nicht erreicht, denn GPUs brauchen eine deutlich höhere Systembandbreite. MCM für Navi ist Stuss. Vergesst das.
Je nach Linkanzahl erhöht sich die Bandbreite dramatisch. Die IF ist also nicht zu langsam, es kommt nur auf die Linkanzahl an.

EPYC hat z.B. eine Bruttogeschwindigkeit von 170 GB/s bei 2666er DDR4. Wenn die einzelnen Packages also mehr Links haben als EPYC, könnten sie locker das doppelte oder mehr erreichen.

In a four-die multi-chip package, such as in the case of EPYC, two of the dies are rotated 180 degrees with each die being linked directly to all the other dies in the package. Assuming the system is using DDR4-2666 (i.e., DRAM's MEMCLK is 1333.33 MHz), each of the die-to-die links have a bandwidth of 42.667 GB/s and a total system bisectional bandwidth of 170.667 GB/s.
https://en.wikichip.org/wiki/amd/infinity_fabric
 
donend schrieb:
Für ein GPU MCM auf Navi Basis fehlt es an Die-to-Die bidirektionler Bandbreite, die man auch auf Interposern nicht erreicht, denn GPUs brauchen eine deutlich höhere Systembandbreite. MCM für Navi ist Stuss. Vergesst das.
So, is it possible to make an MCM design invisible to a game developer so they can address it as a single GPU without expensive recoding?

“Anything’s possible…” says Wang.
So viel dazu. Das Fabric kann aufgebohrt werden, mehrere genutzt werden. Solange die Ingenieure das Ziel haben mehrere GPU-Dies zu verknüpfen, finden sie bestimmt einen Weg.

It’s definitely something AMD’s engineering teams are investigating, but it still looks a long way from being workable for gaming GPUs, and definitely not in time for the AMD Navi release next year. “We are looking at the MCM type of approach,” says Wang, “but we’ve yet to conclude that this is something that can be used for traditional gaming graphics type of application.”
Und eine MCM-GPU für eine PS5 wird hiermit nicht ausgeschlossen. Ein Custom-SoC für Sony ist halt keine "traditional gaming graphics"-Anwendung.
Für Sony könnte eine MCM-GPU auch hinter einer eigenem Softwarelösung versteckt werden. Das ist der Vorteil von Konsolen: Immer die gleiche Hardware, die dafür etwas spezieller sein kann.
Somit könnte sie PS5 zur Testbench für MCM-GPUs werden. Wenn Sony so 30% weniger für eine starke GPU zahlen muss, ist ihnen das egal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mabot
Und was hat das damit zu tun das für ein MCM die benötigte Die-to-Die Bandbreite fehlt? Wang ist ein Schwätzer...klar ist alles möglich, nur wann! 170Gb/s ist für GPUs viel zu wenig, dass sagt er nicht. Die verkaufen dir alle ein rostiges Fahrrad als neues.

Latenzreduzierungen bringen auf Zen+ nur etwas, wenn man die Daten nicht im selben CCX halten kann. Ich geh schlafen, ist besser. Nicht zu vergessen das AMD unter 12nm auch die Transistorleistung gesteigert, trotzdem braucht dies kein neues Chipdesign.

Was die Cachelatenzen an sich angeht, schon mal an Mining gedacht und wie Cachelastig dies ist? Alles für Gamer, ja...neuerdings spricht man nur noch von "optimized for Server- and Workstation Compute", Gamer war letztes Jahr.
 
ich hab da so meine zweifel, ob das gerücht sich wirklich bewahrheiten wird.

es ist zwar sehr wahrscheinlich, dass sony für die ps5 navi bekommt - aber ich glaube einfach nicht, dass navi ps5 exklusiv wird oder sowas in der art.
wenn man sich mal ansieht, wo überall polaris drinsteckt, macht eine oem/ps5 gpu und eine instinct vega für die komplette RTG bis 2020/2021 absolut keinen sinn.

was soll amd daran hindern das fertige design 1-2 jahre vorher auf n pcb zu pappen und als add-in karte zu verkaufen? das ist ja wohl der kleinste aufwand - vorallem wenn man bspw. nichtmals ne referenzkarte auflegt und das den boardpartnern komplett überlässt. das ökosystem mit radeon adrenalin treibern, freesync 1+2, studio-partnerschaften und vulkan wäre komplett verschwendet.

und was macht asrock? gerade mit amd gestartet und schon ende mit desktop gpus? :rolleyes: das wäre auch das ende von allen anderen amd gpu boardpartnern, ausser sapphire. was sollen die dann verkaufen?

würde das gerücht so stimmen, wie man es hier zu lesen bekommt, dürfte man bei nvidia bald ein paar neue marken entdecken können.

die ganze geschichte könnte auch eine finte für nvidia sein.

weil eins ist nämlich auch klar: wenn amd nvidia den desktop gpu markt bis turing refresh kampflos komplett überlässt, braucht amd hier garnicht mehr antanzen. in dem fall wäre vega die letzte radeon gaming karte für den pc.
 
  • Gefällt mir
Reaktionen: s0UL1
donend schrieb:
Und was hat das damit zu tun das für ein MCM die benötigte Die-to-Die Bandbreite fehlt? Wang ist ein Schwätzer...klar ist alles möglich, nur wann!

Ich glaube der Spruch fasst das Niveau dieser Diskussion gut zusammen.
Irgendjemand mit Foren-Pseudonym nennt den Senior Vice President des weltweit zweitgrößten Herstellers von dedizierten Grafikkarten einen Schwätzer. Oh, die Ironie.

Ich glaube der Mann weiß besser, was AMD in welcher Zeit zu Stande kriegt und auch er will seinen Job behalten und Geld verdienen.
Wenn du es wirklich besser weißt, bitte bewirb dich bei AMD, ich will in 2 Jahren kein Nvidia-Monopol haben. Solange du da nicjt Chef bist, bleibt mir nur auf AMD zu vertrauen, die ja zum Glück mit Ryzen gezeigt haben, dass sie technisch und ökonomisch richtige Entscheidungen treffen können.
 
  • Gefällt mir
Reaktionen: .fF, Iapetus, smart- und 2 andere
Zurück
Oben