-
Es gelten die Sonderregeln des Forums Politik und Gesellschaft.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Quartalszahlen: AMD macht 93 Prozent mehr Umsatz als vor einem Jahr
- Ersteller MichaG
- Erstellt am
- Zur News: Quartalszahlen: AMD macht 93 Prozent mehr Umsatz als vor einem Jahr
T
Teralios
Gast
Nein, steuerliche Vorteile hat das nicht wirklich, da die Raten, mit denen AMD die Kredite tilgt, sich in der Bilanz wiederfindet und vom Umsatz abgezogen wird.Balikon schrieb:Das hätten sie auch jetzt schon sein können. Ohne Experte zu sein, vermute ich mal, es hat steuertechnische Vorteile, wenn eine Firma noch Schulden hat.
Maßgeblich sind hier eher die Kreditverträge, die AMD mit den Schuldnern hat und wie diese ausgestaltet sind. Wenn AMD zum Beispiel Verträge mit einer Laufzeit von 5, 10 oder 20 Jahren für Kredite hat, kommt es auch darauf an, ob die Kreditgeber Sondertilgungen zulassen und auch mit wie viel Strafe so eine Sondetilgung belegt wird.
Aus den 300 Mio. $ könnten so zum Beispiel bei einer Sondertilgung 350 Mio. $ oder gar 400 Mio $ werden, weil die Kreditgeber dann eine gewisse "Kompensation" verlangen und da sind 10 % - 20 % Strafe nicht mal so ungewöhnlich.
Steht in der News drin, u.a. auch das steuerliche Sonderbelastungen gab.shysdrag schrieb:Wo kommt die große Differenz zu den 0,55 Mrd Netto Ertrag her?
Nö, nicht wirklich. AMD krebst seit einiger Zeit bei der Summe um die 300 Mio. $ rum.Rickmer schrieb:Einen nicht unerheblicher Anteil davon dürfte die Schuldentilgung sein
Und wo ist hier bitte das Problem für AMD oder Intel? Es ist ja nicht so, als hätte AMD und Intel nicht eine ARM-Lizenz. Stichwort wäre hier AMD K12.Kimble schrieb:Aber auch AMD bekommt immer mehr Konkurrenz aus der ARM-Sparte.
AMD hat mit der erste Ankündigung von Zen auch bereits gesagt, dass sich neben bei an einer ARM-CPU arbeiten und einige Bestandteile gemeinsam entwickelt werden, unter anderem der IF.
Es mehren sich sogar aktuell die Gerüchte, dass AMD neben "x86"-CPUs nun durchaus auch interesse hat ARM-CPUs zu entwickeln und auf den Markt zu bringen:
https://www.notebookcheck.com/Gerue...fuer-Apples-M1-ARM-SoC-arbeiten.507661.0.html
https://winfuture.de/news,78156.html
Und so unwahrscheinlich ist es nicht, da AMD niemals wirklich offiziell ihr K12-Projekt beendet hat, sondern damals nur sagte, dass man die Zen-Entwicklung priorisiere um auf den Markt zu kommen. Damals eine durchaus verständliche Entscheidung, da AMD das Geld fehlte um zwei so unterschiedliche CPUs zu entwickeln als auch noch GPUs.
AMD besitzt bereits eine ARM Architektur-Lizenz und sie dürfen sogar EIGENE Kerne entwickeln. Mit dem Kauf von Xilinx - die auch eine ARM-Lizenz haben - kann AMD auch hier noch auf wieteres Knowhow zugreifen.
AMD ist hier sehr flexibel. AMD hat 2016 und 2017 die Zeichen erkannt, dass die Zeit für ARM-Server noch zu früh war, jetzt kann AMD aber ihre K12-Pläne duchaus auch wieder hervor holen und verwirklichen.
Ach werden sie das? Apples Wunderchip M1 ist am Ende aber eigentlich nur ein ultrabreiter INT-Core mit einer breiten FPU.Kimble schrieb:Apple wird mit dem M2 die Konkurrenz wahrscheinlich schocken.
Klar, es ist durchaus durchaus beachtlich, was Apple da für einen Chip gezaubert hat, es ist aber nicht so, dass AMD als auch Intel diese Rezepte nicht auch kennen, nur dass hier halt die ISA (x86) durchaus ein limitierender Faktor ist, weil das Decoding doch deutlich komplexer ist.
Ein möglicher K12 von AMD mit den richigen breiten beim Decoder und im Backend ist da kein Problem.
Wobei AMD da recht gut agiert und im Endeffekt nie den modernsten Schritt nimmt sondern quasi einen hinten an und damit recht gut die frei werden Kapazitäte von Apple und Co übernehmen kann.Shoryuken94 schrieb:Das wirkliche Limit bleibt die Verfügbare TSMC Kapazität. Über steigende Preise und damit die Marge wird AMD auch zukünftig für mehr Umsatz sorgen.
Auf der Softwareseite hat NVIDIA schon immer auf einem ganz anderen Level agiert als AMD und man muss hier sagen, dass NVIDIA in dem Fall von 3dFX gelernt hat.Shoryuken94 schrieb:Auch auf der Softwareseite ist Nvidia z.B. mittlerweile auf einem ganz anderen Level, da muss man sich nur mal die GDC von diesem Kahr anschauen.
Es gab eine Zeit, da hat AMD "versucht" mit zu mischen. FireStream und damit war AMD sogar "NVIDIA" vorraus. Aber statt Softwareentwickler bei der Nutzung zu unterstützen und ebens mangelndem Marketing, konnte NVIDIA knapp ein Jahr später mit CUDA die Führung übernehmen und warum? Weil NVIDIA von Anfang an an Entwickler ran ist, quasi kostenfrei Features in Programme implementiert hat. AMD hat dann auf "OpenCL" gesetzt.
AMD hat bis vor quasi 2 - 3 Jahren sich primär auf Hardware konzentriert und die Software quasi vollkommen außenvor gelassen.
Jetzt erst fängt AMD an zu verstehen, dass es nicht reicht einfach gute Hardware zu liefern, sondern dass man die Entwickler mit an Board holen muss.
Und ehrlich AMD ist aktuell eher darum bemüht den Rückstand im Bereich Software aufzuholen, als dass sie NVIDIA noch weiter davon ziehen lassen und das merkt man an allen Ecken und Enden, sei es ROCm - in dem sie auh einiges ansetzen was KI angeht, oder dass AMD sogar anfängt - hier im Verweis auf Intel - optimierte Algorithmen für Zen in die standard Bibliotheken zu schieben.
Also ja: NVIDIA agiert au einem anderen Software-Level, aber da waren sie schon immer, nicht erst seit diesem Jahr. Es ist eher so, dass AMD bemüht ist da aufzuholen und auch das sieht man, ich sag nur Fidelity FX als Standdard im XBox SDK.
HanneloreHorst
Rear Admiral
- Registriert
- März 2014
- Beiträge
- 5.603
Ich bin auch jemand, der bei der Lobhudelei des M1 auch immer die fehlende Vielseitigkeit moniert(Probleme mit Hardware, Anschlüsse, viele Programme laufen nicht rund unter Big Sur und M1 und Limitierung auf OSX) .Teralios schrieb:Ach werden sie das? Apples Wunderchip M1 ist am Ende aber eigentlich nur ein ultrabreiter INT-Core mit einer breiten FPU.
Aber Ja, Apple wischt leider bei weniger Verbrauch mit AMD und Intel den Boden.
In meinen Augen total subjektiv die Tester aber die Tests zeigen halt trotzdem ein Teil der Realität.
Das krasseste Problem, vor allem beim Link sieht man, ist die Leistungsaufnahme, die ja mind. doppelt so hoch ist wie beim M1 und der M1 erreicht seine Leistung immer, auch z.B. unplugged, während AMD und Intel schon in Teilen sehr hart die Leistung runter schrauben.
Ob und wie schnell AMD oder Intel da kontern können, bis zur Marktreife von nVidia und AMD ARM Prozessoren für Consumer dauert es noch 2-3 Jahre, bis dahin gibt es ja den M2X, M3 oder M4 und die Grafikkarte an der Apple arbeitet wird ja in 2-3 Jahren auch fertig sein.
Und am Ende ist es egal wie es geschafft wurde, Fakt ist leider, das AMD und Intel nicht mal annähernd an die Effizienz ran kommen werden in den nächsten 1-2 Jahren.
Was du beschreibst a la "AMD müsste einfach" würde ja trotzdem nicht im Juni fertig sein oder? Nicht mal im September.
Pläne einfach wieder raus holen, das bedeutet trotzdem nochmal die Planung und Entwicklung in die Moderne zu bringen und ein paar Jahre bis es Marktreif ist.
Also stand jetzt wird AMD und Intel nichts gegen M2 in der Tasche haben, außer sie machen einen Wurf mit den Niemand gerechnet hat.
Wann ist das letzte mal sowas passiert?
Ich mein 2024 wird man wohl Intel kontern.
Das ist alles nicht mal eben um die Ecke das AMD mit Fingerschnipps kontert oder Intel.
Der größte Vorteil derzeit für AMD und Intel ist, das Microsoft richtig schlecht auf ARM ist und Windows(auch Linux).
Glaubt man gar nicht(also das Windows der Vorteil ist) aber, es nutzen halt immernoch so viele Windows und werden nicht wechseln und da sind AMD und Intel die einzigen Alternativen, egal wie Apple mit dem M1 performt.
In Summe ist Leistung aber auch nur für Nerds und Prosumer interessant, ich bezweifle, das die meisten KäuferInnen Benchmarkverläufe in Betracht ziehen.
Für uns Nerds ist es aber derzeit so, dass man in Sachen Leistungseffizienz schon neidisch auf den M1 schaut, den DeCodern die drin sind und gewisse Programme boosten und das ohne einen Nachteil(außer der beschriebenen fehlenden Vielseitigkeit).
Zuletzt bearbeitet:
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.859
wundert mich nicht bei den Preisen, die AMD neuerdings aufruft.
duskstalker schrieb:wundert mich nicht bei den Preisen, die AMD neuerdings aufruft.
So besonders hoch sind diese gar nicht. Die hohen Endkundenpreise kommen von den Händlern, die sich die entsprechenden Gelder auch in die eigene Tasche stecken.
AMD hat die UVP seiner CPUs von 3000er zu 5000er Serie lediglich um 50€ angehoben. Dass die Dinger dann teils wegen Knappheit und der Gier der Händler 200-300€ über dieser UVP verkauft werden/wurden, ist nicht AMD geschuldet und davon hat AMD auch nichts.
T
Teralios
Gast
Und wenn du, statt dich sofort auf diese Aussage zu stürzen, etwas weiter gelesen hättest, dann wäre dir vielleicht folgende Aussage aufgefallen:HanneloreHorst schrieb:Aber Ja, Apple wischt leider bei weniger Verbrauch mit AMD und Intel den Boden.
Das heißt, deine weitgehende Erläuterung gewisser Tatsachen ist zwar nett, aber vollkommen unnötig und in weiten Teilen auch an der eigentlichen Aussage meines Beitrages vorbei, weil ich nämlich noch angeführt habe, dass AMD durchaus auch ARM-Prozessoren entwerfen kann.Teralios schrieb:Klar, es ist durchaus durchaus beachtlich, was Apple da für einen Chip gezaubert hat, es ist aber nicht so, dass AMD als auch Intel diese Rezepte nicht auch kennen, nur dass hier halt die ISA (x86) durchaus ein limitierender Faktor ist, weil das Decoding doch deutlich komplexer ist.
Und unter dem Gesichtpunkt der ARM-Prozessoren ist Apples M1 wiederum alles andere als etwas besonderes, sondern bedient sich einer recht einfachen Rezeptur, die fast allen CPU-Entwicklern bekannt ist: Breites Frontend, breites Backend geparrt mit entsprechenden Caches.
Sieht man sich den M1 - Leistungsteil - an, dann fällt auf, dass hier ein sehr breiter Decoder für die Pipeline - 8 Befehle - auf ein sehr breites Backend trifft. Dazu kommt der Dispatch-Block, der entsprechend viele Einträge für die OoO-Ausführung umsortieren kann. Das ganze wird gefüttert von 192 KiB L1-Instruktions Cache, sowie 128 KiB L1-Daten-Cache, was bei 4 Kernen dann noch auf 12 MiB L2-Cache trifft.
Sieht man sich dagegen die Kerne von Intel und AMD - x86 - dann fällt bereis auf, dass hier ein ähnlich breites Backend auf einen "Decoder"-Stößt, der gerade mal 4 befehle pro Takt schafft und bei Intel und AMD ist man heute sogar darum bemüht möglichst viele "Befehle" "decodiert" im MikroOPs-Cache zu halten, weil die Befehle von dort wesentlich schneller "geladen" werden können.
Und genau hier liegt das Problem und damit wieder auf meine Aussage: "... nur dass hier halt die ISA durchaus ein limitierneder Faktor ist, weil das Decoding doch deutlich komplexer ist."
Auch wenn CISC heute im Kern als RISC ausgeführt wird und "CISC"-Ähnliche Befehle heute bei ARM durchaus vorhanden sind, sind die RISC-Befehle bei ARM immer noch deutlich einfacher in ihre MikroOPs zu zerlege als die CISC-Befehle bei x86.
Man merkt an allen Ecken und Enden heute der x86-Architektur ihr Alter an und man merkt auch, dass gerade in der Zeit der 70er und 80er im Bereich IT soviel getan hat, es hat ja nicht nur mit RISC und CISC zutun, sondern auch mit der damaligen Welt der Programmierer. CISC in "Assembler" zuprogrammieren ist sehr einfach. eine RISC-CPU in Assembler zu programmieren? Das ist die Hölle. Mit den immer besser werdenen Programmiersprachen der 70er und 80er konnte man aber eben auch RISC einführen.
Und da kommt jetzt der nächste Punkt: AMD kennt sich - so wie Intel - mit breiten Designs bereits gut aus, nur hat x86 bis heute sehr viel Fett, auch wegen der Kompatiblität, der das Decodieren der Anweisungen sehr komplex macht. Es gibt ja nicht umsonst die Gerüchte dass Intel an einem etwas "radikaleren" Schnitt bei x86 arbeitet in den nächsten Generationen um dieses Fett weg zu schneiden.
Dazu kommt aber halt noch ein Problem: quasi erst mit AMD64/x64 hat x86 wirklich allgemeine Register bekommen im "INT"-Kern - 8 an der Zahl + die 8 Register mit feste Aufgaben bisher. Dazu dann noch ma 8 für die MMX/SSE-Einheiten von XMM8 - XMM15. Vor x64 hatte also die IA32 8 Register mit festen Aufgaben und in der FPU 8 allgemein nutzbare, seit x64 kommen 8 allgemeine Register im INT und eben 16 in der FPU, erst mit AVX512 kommen noch mal 16 dazu, so dass man in der FPU auf 32 Register kommt.
Nur war das damals bereits der Punkt: Bei ARM wusste man immer, dass man quasi nie genug Register haben kann, wenn man "Energiesparen" will. ARM hatte schon früh sehr viele Register im ARMv8 sind 31 Register vorgeschrieben. Wenn man hier entsprechend "agiert" kann man sehr viel Rechnen, ohne dass man wirklich auf den Cache oder NOCH SCHLIMMER auf den Arbeitsspeicher zugreifen muss um auf die Daten zu warten.
Apples Erfolg mit dem M1 ist keine hohe Zauberkunst, die Zutaten sind allen bekannt, Apple zeigt mit dem M1 nur auf, dass x86 einfac aus einer Zeit stammt, als man noch primär Assembler programierte und es daher wichtig war, dass man als Mensch die CPU programmieren kann. ARM kommt aus einer Zeit, als man dem Menschen "Asselbmer" wegnahm und den Compiler mehr Macht gab.
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.246
Sehe ich total anders. Auch ein 5800X ist für mich Mittelklasse. Eigentlich hasse ich diese "Aufteilung" von Produkten, aber 5600X ist klar lowend, 5800X midend, 5900X highend und der 5950X einfach das Flagship und damit automatisch auch highend.Infect007 schrieb:Naja, du bezeichnest den 5600X als Mittelklasse-Prozessor.
Dem 5600X fehlen (in Games 1080p) 3% zum 5800X und 5% zum 5950X.
Das ist halt alles andere als Mittelklasse.
Wenn du Mittelklasse möchtest, musst du 3XXX kaufen, nicht umsonst hat sich AMD dazu entschlossen Zen2 weiterlaufen zu lassen.
Nur weil es ältere Prozessoren gibt, hat dies doch nicht direkt was mit der Einstufung zu tun. Der 3950X ist nun auch kein highend mehr, da er technologisch veraltet ist.
machiavelli1986
Commander
- Registriert
- Feb. 2008
- Beiträge
- 2.655
Gufur schrieb:In Deutschland hat man bereits seit einigen Monaten keine Probleme die neuen Zen 3 zu bekommen
Ich weiss echt nicht woran es liegt. Ich kann mir nur vorstellen, dass viel zu viele Vorbestellungen entgegengenommen wurden, zu Preisen für welche sie nun keine CPUs gewinnbringend beziehen können.
Es betrifft praktisch sämtliche Shops bei uns. In DE wurden ja relativ schnell die CPUs bei vielen Shops von der Seite genommen und nach und nach aufgeschaltet wenn wieder eine Charge verfügbar war, natürlich dann über UVP.
- Registriert
- Juni 2019
- Beiträge
- 8.329
Sieht doch ganz ordentlich aus. Dass die Konsolen Chips derzeit das Hauptfeld sind wundert wenig. Sony hat nach eigenen Angaben bereits 7,8 Mio PS5 verkauft, bei der Xbox weiß ich es nicht aber beide laufen immernoch unterhalb ihrer Nachfrage. Auch wurden noch 1 Mio PS4 im letzten Quartal abgesetzt was ebenfalls hinzu käme.
Hier wird's definitiv nicht aufhören. Ich persönlich gebe AMD voraussichtlich das nächste mal Geld wenn ihre RDNA2 Radeon Pro Ableger erscheinen bzw wenn mein Kumpel sein Racingsetup umsetzen möchte.
Hier wird's definitiv nicht aufhören. Ich persönlich gebe AMD voraussichtlich das nächste mal Geld wenn ihre RDNA2 Radeon Pro Ableger erscheinen bzw wenn mein Kumpel sein Racingsetup umsetzen möchte.
Zuletzt bearbeitet:
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.859
Neodar schrieb:So besonders hoch sind diese gar nicht
von einem r5 3600 auf einen r5 5600x haben sich die Preise verdoppelt (ja der eine ist ein x und der andere nicht, aber es gibt keine Alternative. 6 Kerne zu 6 Kerne kostet jetzt das doppelte) und bei den gpus verhält es sich ähnlich.
Die 6900x kostet das doppelte einer vega 64 und noch 40% mehr als eine radeon 7 mit 16gb hbm2. Wobei man hier sagen muss, dass die 6800xt zum mrsp garnicht so schlecht ist. Was mir sauer aufstößt sind die teuren Karten weiter unten. Man hat nicht das Gefühl, dass die langsameren Karten irgendwie günstiger werden.
polaris 10 auf Navi 10 Xl (beides 36 CU) war ebenfalls eine Preissteigerung von 50%.
Was erwartest du denn für Zuwächse gegenüber einem Vorquartal mit Weihnachtsgeschäft?Palmdale schrieb:Sehr gute Zahlen, allerdings sind C&G etwas ernüchternd und wohl massiv durch Lieferschwierigkeiten eingebremst. Quasi kaum Zuwachs ist bemerkenswert
Im Conference Call wurde das auch gefragt. Lisa Su hat konkret gesagt, es gibt keine Pläne, eine ARM-CPU neu aufzulegen. Allerdings könne man, auch durch die Chiplets, sehr einfach für spezielle Kundenwünsche Komponenten mit ARM oder FPGA (Xilinx) hinzufügen.Teralios schrieb:Es mehren sich sogar aktuell die Gerüchte, dass AMD neben "x86"-CPUs nun durchaus auch interesse hat ARM-CPUs zu entwickeln und auf den Markt zu bringen:
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
t3chn0 schrieb:Sehe ich total anders. Auch ein 5800X ist für mich Mittelklasse.
Demnach gibt es bei Intel nur noch Mittelklasse CPUs
- Registriert
- Juli 2010
- Beiträge
- 13.327
Ja, sind noch ohne Xilinx. Wurde hier ja schon mehrfach gesagt.konkretor schrieb:@MichaG sind die Zahlen aktuell noch komplett ohne Xilinx?
Vielleicht ist die Übernahme auch erst Ende 2021 abgeschlossen, sofern Wettbewerbsbehörden nicht noch etwas dagegen haben.
Kalsarikännit
Commander
- Registriert
- Aug. 2012
- Beiträge
- 2.258
UVP 209€ (zu Release) zu UVP 299€ != verdoppelt. Wie kommt man zu der Annahme?duskstalker schrieb:von einem r5 3600 auf einen r5 5600x haben sich die Preise verdoppelt
T
Teralios
Gast
Na ja, wenn man jetzt alle Infos zusammenträgt, die man so zum K12 findet und was AMD da sagte, dann kann man die Aussage von Lisa Su da auch nicht als "Verneinung" deuten, denn AMD hat den K12 weder offiziell noch inoffiziell je abgesagt, sondern nur 2015 und 2016 durchblicken lassen, dass man den K12 zugunsten von Zen verschieben wird. Mit der Verschiebung von Zen 2016 auf 2017 war damals auch klar, dass sich K12 verschiebt.Colindo schrieb:Im Conference Call wurde das auch gefragt. Lisa Su hat konkret gesagt, es gibt keine Pläne, eine ARM-CPU neu aufzulegen.
2018 wiederum ließ man durchblicken, dass man keine "genauen" Produkte in der Pipeline hat, aber sehr wohl das ARM-Projekt noch verfolgt und dass ein K12 kommt, wenn er kommt.
Da AMD bisher auch keine "ARM"-CPU hat, wäre es ohnehin kein "neuauflegen". Und da ist jetzt der entscheidende Punkt: AMD hat nie angedeutet, dass sie ARM aufgegeben haben, sondern da auch noch aktiv sehr wohl dran arbeiten.
Nimmt man jetzt ihre Aussage, dann kann man das eher so deuten, dass AMD selbst nicht unbedingt eine CPU auf ARM-Basis auflegt in nächster Zeit, aber wie du selbst andeutest, dass sie sehr wohl ggf. auch Cores im Portfolio haben und diese nach Kundenwunsch in der Semi-Custom dann anbieten.
nciht
Vice Admiral
- Registriert
- Okt. 2017
- Beiträge
- 6.974
Naja, da wurde zum einen fröhlich vor dem Release von RDNA2 kommuniziert, dass es im Gegensatz zu nVidia bei ihnen genug Grafikkarten geben würde und selbst am Tag vom Release wurde noch so getan, als wären genug Karten da. Und bis heute spricht auch Lisa Su immer wieder so ekelhaft positiv von der ganzen Situation, dass mir jedes mal die letzte Mahlzeit hoch kommen will. Musst du ja nicht unsympatisch finden... ich halt schon... ist aber auch nicht so, dass die anderen großen Tech-Unternehmen da so viel besser wären.Kloin schrieb:Ach ja? Welche erwähnenswerten Sachen haben sie sich denn geleistet?
Schuldentilgung hat keine Auswirkung auf den Ertrag.Rickmer schrieb:Einen nicht unerheblicher Anteil davon dürfte die Schuldentilgung sein
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.340
So ist es auch,5900x&5950x sind schon feine Teilchen im Consumerbereich wo es momentan nichts Vergleichbares gibt.GERmaximus schrieb:Demnach gibt es bei Intel nur noch Mittelklasse CPUs
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.246
Im Vergleich zu AMD ist das derzeit wohl so. Wenn man sich das innerhalb des Lineups ansieht, wäre der 11900K auch hier das Flagship.GERmaximus schrieb:Demnach gibt es bei Intel nur noch Mittelklasse CPUs
Im Verhältnis zu den auf dem Markt verfügbaren Technologien, hat Intel tatsächlich nur Mittelklasse anzubieten.
Es ist immer eine Frage der Betrachtung. Wenn wir von Spielen reden, wäre der 11900K wieder highend, wobei der 10900K auch noch highend wäre, kann er aber fast nicht sein, da er technologisch älter als der 11900K ist.
Highend sollte (für mich) immer die schnellstmögliche und aktuellste Technologie sein.
loser
Lieutenant
- Registriert
- März 2013
- Beiträge
- 596
In Deiner Betrachtung ist der 5600X low-end, obwohl er nur unweit eines 11900 operiert, der aber wieder high-end ist. Habe ich das so richtig verstanden?t3chn0 schrieb:Es ist immer eine Frage der Betrachtung.
Egal wie was wo einsortiert, aktuell gibts dank AMD von Intel 6 Kerner für unter 200.- die wohl ein paar Jahre als Gaming CPU mithalten können. Dafür sollten wir dankbar sein.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 50
- Aufrufe
- 3.454
- Antworten
- 17
- Aufrufe
- 1.598
- Antworten
- 281
- Aufrufe
- 21.841
- Antworten
- 156
- Aufrufe
- 33.210
- Antworten
- 29
- Aufrufe
- 7.074