News Intel Core i9-7920X: 12 Kerne von Core X takten mit mindestens 2,9 GHz

da müssen aber schon arge Probleme vorliegen, wenn das stimmt. 165Watt TDP und dann nicht mal die psychologische Marke von 3,0GHz genommen.

Marcel55 schrieb:
Vielleicht ist auch x86 an sich am Ende.

Das wird schon seit so vielen Jahren gesagt und immer wieder kommt eine nächste Generation mit mehr Leistung.
 
Zwirbelkatz schrieb:
Der Meinung bin ich auch.

Damit haben sie sich aber dieses mal ins eigene Bein geschossen. Bestimmt sind die Intel CPUs nice für Workstations und so. Aber für einen Enthusiasten wie mich, der die CPU übertakten und ausreizen will und dafür auch bereit ist vieeeeel Geld hinzulegen ist Skylake-X aktuell kaum einen Blick wert.

Evtl. könnte man sich ein geköpftes Modell von Caseking holen (Caseking übernimmt sogar die Garantie), dafür löhnst du dann aber extra...bei einer > 1.000€ CPU. :freak:

Ganz stark@Intel. Alles richtig gemacht. RIP :skull_alt:

greetz
hroessler
 
Mir gefällt der Gedanke ebenfalls nicht. Sollte ich zu Coffee Lake greifen, dann "muss" geköpft werden. Ich bin nicht sicher, ob ich das selbst durchführen werde, oder auf den (Vorsicht, Wortspiel) Bauernfang von Caseking in Anspruch nehme.
Grundsätzlich ist das Angebot ja ein Gutes, jedoch fußt es auf geplanter Obsoleszenz seitens Intel. Und mir einfach 3 Prozessoren bestellen und aussuchen, welcher mir am besten taugt, geht dann ebenfalls nicht.

Skylake-X taugt mir aufgrund des Verbrauchs nicht und natürlich empfinde ich es als Frechheit, dass eine solch teure CPU derartige, mglw. absichtliche Schwächen hat.
 
Roche schrieb:
Dass Intel den Takt dieser CPU so weit runtersetzen muss, zeigt deutlich, dass ihre Architektur am Limit angekommen ist.
Das hat mit der Architektur nicht viel zu tun, die Skylake-X lassen sich ja wohl reicht gut bis 5GHz Übertakten, wenn sie geköpft werden und man sie eben nicht mit AVX Lasten beaufschlagt, da diese zu einer extrem hohen Leistungsaufnahme führen.
Krautmaster schrieb:
2,9 Ghz dürften für AVX 512 Last unter Einhaltung der ~160W gelten.
Eben, die Grundtakten, bei I9 7900X sind es ja auch nur 3,3GHz, beziehen sie auf maximale AVX Last. Allcore ohne AVX ist daher auch deutlich höher.
ottoman schrieb:
Bei Intel weiß man das aber nie so genau :D
Auch AMD hatte immer wieder mal WLP, zuletzt z.B. bei den ganzen FM2 und FM2+ APUs/CPUs.
SlaterTh90 schrieb:
Ich glaube nicht das Intel sich die Mühe macht extra zwei verschiedene Produktions-abteile fürs "verpasten" und verlöten zu bauen.
Da die Vorgänger der Broadwell Generation ja noch gefertigt werden, gibt es diese Fertigungslinie fürs Verlöten ja auch noch nebenbei.
Helios_ocaholic schrieb:
Weiss jemand, wie es mit dem massiven Problem des "Phantom Throttlings" bei den Skylake-X zwischenzeitlich aussieht?
Ja, dies liegt an den Mainboardherstellern bzw. deren UEFI Programmierern, die die Vorgaben zum Takt vor allem dem bei Nutzung der AVX Befehle nicht selten falsch umgesetzt haben und selbst in der Defaulteinstellung viel zu hohe Taktraten anlegen:
Was uns jedoch auffiel: jeder Hersteller hatte da so eine eigene kleine Leiche im Keller, "Cheats" inklusive. Vergleichen wir zunächst einmal das Asus Prime X299-Deluxe und das MSI X299 Gaming Pro Carbon AC (basierend auf dem Test meines Kollegen Thomas Soderstrom). Während Asus die Leistung @Stock ein wenig einbremst, lässt MSI der Kraft vollen Lauf. Kraft kommt von Kraftstoff und so verwundert uns die Leistungsaufnahme (und die damit verbundene Abwärme) dann schon gar nicht mehr:



Da Prime95 keine Ergebnisse auswirft, muss man dann schon genauer hinschauen, wo die Unterschiede liegen. Zum Einen gibt es beim MSI einen BIOS Eintrag Enhanced Turbo, der per default immer auf <auto> steht und so aktiv ist. Um ihn aber überhaupt zu finden (und zu deaktivieren), muss man erst das Advanced-BIOS öffnen und dann noch den Expert-Modus beim OC aktivieren. Im Turbo Boost 2.0 stehen ja normalerweise zwei Kernen bis zu 4.3 GHz Turbo-Takt zu, doch ist der Schalter aktiviert (und das ist er ab Werk immer), takten alle Kerne bei Last automatisch auf 4.3 GHz. Das ist eine nette Übertaktung ab Werk, die natürlich auch mit einer automatischen Spannungsanpassung abgesichert wird.
Was hingegen wundert ist der Umstand, dass man bei 4,0 GHz auf allen Kernen und dekativiertem Enhanced Turbo erschreckende 230 Watt statt Überwiegend 160 Watt (mit Leistungsspitzen bis etwas über 230 Watt) bei Prime95 und 4,3 GHz All-Core-Turbo benötigt. Hier scheint Intel also intensiver zu regeln. Allerdings kehrt sich das Bild wieder in die Realität um, wenn man mit Cinebench rendert. Dann ist die 4-GHz-Variante mit 145 Watt Einsatz für 2169 cb gut, währen die mit Enhanced Turbo erreichten 4,3 GHz dann für 2312 cb bei 190 Watt sorgen. Wir erhalten 6,6% mehr Performance bei 7,5% mehr Takt für unmögliche 31% mehr Leistungsaufnahme!
Der Grundtakt des i9-7900X mit AVX ist 3,3GHz, wenn MSI dem bei dem Board eben 1GHz bzw. 30% OC schon in der Defaulteinstellung zumutet, sollte es nicht wundern, wenn die Leistungsaufnahme durch die Decke geht und damit die Temperaturen der CPU und / oder der Spannungswandler auf dem Board, was dann zum Throtteln führt.

Das kann man auch bei y-cruncher nachlesen:
Wobei 3,6GHz immer noch 300MHz oder knapp 10% OC sind, aber eben weitaus besser verträglich als gleich mal ab Werk 4 oder gar 4,3GHz Takt anzulegen.

Das ganze Thema ist ja auch nicht neu, schon die großen Xeon der Haswell Generation hatten gesenkte Taktraten bei intensiver Nutzung von AVX:


Und damals waren es noch nicht so mächtige AVX Einheiten wie heute, die noch mal mehr Leistung als ihre Vorgänger ausnehmen. Entsprechend sind die Taktraten da auch feiner abgestuft und es wird zwischen Takt ohne AVX Nutzung, mit AVX2 und mit AVX-512 Nutzung unterschieden und bei Nutzung aller 28 Kerne des Xeon 8180 sind entsprechend 3,2, 2,8 oder nur 2,3GHz Takt vorgesehen:



pgene schrieb:
Das ist überraschend wenig mehr als mein (7?) Jahre alter Intel 12Kern (2,4GHz). Schon irgendwie ne Witznummer.
Dein alter 12 Kerner hat aber auch keine nennenswerten AVX Einheiten, sondern gewissermaßen nur die Grundausstattung und genau was auch AMD schon seit längerem verwendet und auch immer noch nutzt.



Die leisten nur ein Viertel dessen was die AVX-512 Einheiten der großen Skylake CPU schaffen! Auch wenn es nicht so einfach ist diese Leistung praktisch umzusetzen:
Krautmaster schrieb:
hm ne ich denke das effizienter kann man sich abschminken - zumindest bei SLX.
Um die Effizienz zu betrachten muss man immer die Leistung in einem Benchmark mit der dabei entstandenen Liestungsaufnahme betrachten und nicht die Leistungsaufnahme bei anderen Lasten wie z.B. Prime. Dabei ist dann noch zu hinterfragen ob das Mainboard nun schon im Default die CPU übertaktet oder sich an die vorgegebenen Taktraten und Spannungen hält, denn das man beim Übertakten zwar Leistung gewinnt aber eben Effizienz verliert, sollte jedem klar sein!
Krautmaster schrieb:
aber durch den niedrigeren Takt (stock) hat Ryzens 8 Kern da bei der Effizienz die Nase vorn.
Eigentlich haben die Skylake-X keine so viel höheren Takt, der i7-7820X hat einen Basistakt von 3,6GHz.

Krautmaster schrieb:
Man kann halt schlecht 4,5 Ghz erwarten und sich daraus 10-20 % mehr SingleThread Performance versprechen und gleichzeitig extrem auf Effizienz pochen.
Doch schon, sofern so ein Takt eben wirklich nur anliegt wenn auch nur auf maximal 2 Kernen Last ist, aber viele Mainboards heben die Taktraten eben schon in der Defaulteinstellung über die von Intel vorgesehenen Taktraten an um in den Reviews dann mit besseres Performance zu glänzen.

Krautmaster schrieb:
Wichtig ist erstmal dass auch X299 und SLX wie Kaby Lake ein AVX Offset haben.
Das ist der springende Punkt und diese Taktabsenkung bei AVX Nutzung gibt es eben schon seit den Haswell-EP, also seit fast 3 Jahren. Dies sollte eigentlich lange genug sein damit die Boardhersteller sich darauf einstellen können und die Übertakter müssen nun auch endlich mal lernen, dass Prime95 mit AVX als Last nicht taugt um die Stabilität einer Übertaktung zu überprüfen, sondern dabei eine Absenkung der Taktfrequenz bei CPUs mit so massiven AVX Einheiten unvermeidlich ist, sofern man die Leistungsaufnahme eben nicht gewaltig steigern und damit Throtteling provozieren möchte.
Krautmaster schrieb:
Also selbst noch separate Multis bei AVX und AVX 512, wie auch bei den Xeons.
Richtig, das ist bei Skylake-X wie bei den Skylake-SP oben in diesem Post zu sehen. Nur bei der Umsetzung hapert es bei einigen Boards scheinbar noch gewaltig.
 
autoshot schrieb:
Mich würde vor allem der Vergleich 7920X vs 1950X beim H.264/265-Encoding unter Verwendung von AVX512 (wo vorhanden) interessieren, das wird meine Kaufentscheidung voraussichtlich maßgeblich beeinflussen.

so auch bei mir, mitunter das Einzige wofür ich so ne CPU brauchen könnte.
Ergänzung ()

@ Holt

Danke für die Erklärung. Du gibts dir reichlich Mühe und lieferst auch Quellen. Sowas fehlt hier im Forum. Jedenfalls weit besser als nur die Keule auszupacken, ein THG Test zu posten bei dem ein 10 Kern SLX mit dem Intel Thermal Utility und Chiller @ 1 Ghz quasi OC fast verglüht ;)

Gibts denn Versuche die zb den 7820X bei fixem Takt gegen den Ryzen 1800X stellen? Um mal auf die Effizienz und Performance zu kommen.
 
Zuletzt bearbeitet:
Wie ist das eigebtlich mit den DIEs bei Skylake-X? Gibt es 2 (also 10C und 20C) oder für den 7800x / 7820x noch kleinere? Und welche Cores werden eigentlich deaktviert (ausgehend davon, dass beim 7800x z.B. 4 deaktiviert sind), immer abwechselnd, 4 im Block oder ist das willkürlich?
 
Zuletzt bearbeitet:
Zuerstmal werden die defekten abgeschaltet. Sollte eigentlich logisch sein. Später macht man je nach Nachfrage halt auch funktionierende Kerne "kalt"
 
AAS schrieb:
Zähl mir bitte mal die Anwendungen auf die du brauchst.
Ich hab selbst ein Xeon-System mit 12C/24T@2.4 GHz und ich merke einen gewaltigen Unterschied zum vorherigen Ivy Xeon mit 3.4 GHz (4C/8T@3.4 GHz). Und die Single Core Performance von meinem 24T System ist noch schlechter als die eines Ryzen.^^
Kompilieren, kompilieren und nochmals kompilieren und das am laufendem Band. Das lässt sich sehr schwer parallelisieren und da ist single thread performance immer noch key.

Dazu kommen dann auch solche Dinge wie Virenscanner die ebenfalls nur singlethreaded arbeiten und oftmals den Flaschenhals für viele Vorgänge das Systems darstehellen. Es könnte oftmals viel schneller arbeiten wenn solche dummen Dinge wie Virenscanner nicht ständig noch mit ihrer Arbeit den Betrieb aufhalten würden.

In den letzten 9 Stunden hat mein Virenscanner zum Beispiel satte 21 Minuten volle CPU Leistung in Anspruch genommen und der kratzt sehr oft am 100% Limit seines Cores in dem er läuft. Blockiert damit also meine Arbeitsabläufe noch mehr als er eigentlich müsste.
 
noxon schrieb:
Kompilieren, kompilieren und nochmals kompilieren und das am laufendem Band. Das lässt sich sehr schwer parallelisieren und da ist single thread performance immer noch key.

Ich habe beim kompilieren, kompilieren, kompilieren und nochmals kompilieren alle Kerne auf Anschlag. Das ist SC wie MC Leistung wichtig.
Keine Ahnung was du kompilierst? Aber nur auf SC setzen ist Quatsch.

Zum AV: dann nimm einen anderen der weniger Leistung frisst, wenns dich stört. Oder schalt ihn temporär aus, wenn er eh nicht gebraucht wird
 
2,9ghz, putzig.

Da bringen auch die 12 Kerne nichts mehr.

Naja, schön dass AMD mit Ryzen bzw. Threadripper endlich wieder den CPU Markt aufgeräumt hat. :)
 
Dome87 schrieb:
Wie ist das eigebtlich mit den DIEs bei Skylake-X?

Skylake-X basiert auf den HCC und LCC Xeon SP/Skylake SP Dies. Etwas abgespeckt für den kleinen Sockel (bzw. nicht nach außen geführt).

XCC mit bis zu 28
HCC mit bis zu 18
LCC mit bis zu 10

35-1080.429701282.png


36-1080.3191791459.png
 
Zuletzt bearbeitet:
D@rk schrieb:
Für mich is es eig. durch. Ich bestell mir am 27. den 1950X vor =)

Das sieht bei mir ähnlich aus. Ich bestelle zwar nicht vor sondern warte wirklich noch den Test ab, aber es sieht alles danach aus, daß Intel diesmal bei mir nicht zum Zug kommt. Mich überzeugt das Produkt Skylake-X bisher einfach gar nicht. Die Anwendungsfälle wo der SKX wirklich noch punkten kann habe ich selten bis gar nicht und Intel hat für mich soviele negative Entscheidungen getroffen, daß ich nur im Notfall dafür Geld ausgeben möchte. Der Basistakt des 12-Kerners sagt mir auch eindeutig wo Intel das Einsatzgebiet für diese CPU sieht. Und das ist eher nicht mein Rechner.

oldmanhunting schrieb:
Zumindest kann man irgendwann nächsten Monat den Intel 12 Kerner gegen den AMD 12 Kerner testen und wir wissen, was Sache ist.

Yop, ich bin sowas von gespannt auf diese Vergleichstests (12vs12, 10vs16 wegen gleichem Preispunkt, MaxOC vs MaxOC usw). Wenn der TR wirklich AllCore die 4 GHz schafft und sich insgesamt gut schlägt (muss nicht überall Platz eins sein), dann bekommt AMD diesmal seine Chance.
 
mmh jetzt noch nen EVGA Classified Super Record Board dazu und mein altes kann in Rente ... aber da kommt ja nix neues mehr :freak:
 
Hi
Man kann einfach nur noch mit dem Kopf schütteln, über die Arroganz und den Hochmut seitens Intel. Fast ein Jahrzehnt waren sie der Konkurrenz immer voraus und haben scheinbar niemals daran gedacht, dass die Konkurrenz urplötzlich wieder auftaucht. Genau dieses Bild vermittelt derzeit Intel, das Huhn, das panisch aufgescheucht worden ist. Man kann davon ausgehen, dass die sogenannte Leistungskrone an AMD gehen wird. Persönlich kann ich mir auch kaum noch vorstellen, dass Intel bis zum Erscheinen von TR eine vernünftige Antwort hat.

Die Situation ähnelt der damaligen Situation zwischen Athlon64 und PIV. Mit dem Unterschied, dass Intel parallel den Pentium M fortgeführt hat. Der Pentium M hatte damals Intel wörtlich den Arsch gerettet, ansonsten wäre die Geschichte des x86 wahrscheinlich anders verlaufen. Vergessen darf man auch nicht, dass damals AMD damals viel Energie in die Übernahme von ATI steckte, was den K10 merklich verzögerte.
Heute sind die Voraussetzungen völlig anders. Intel fährt keine zweite Architektur parallel und AMD hat ATI verdaut. Der jetzt innovativer und flexibler ist, wird dieses Duell gewinnen.

Persönlich glaube ich, dass AMD derzeit das rennen macht. Die werden Intel wahrscheinlich regelrecht vor sich hertreiben. Mit Infinity Fabric haben AMD eine sehr wirkungsvolle Waffe in der Hand. Da wird seitens AMD noch so einiges kommen. Warum sollte AMD in Zukunft nicht Spezielle DSPs für AVX 512 auf den Infinity Fabric auslagern, um den eigentlichen x86 Kern klein zu lassen? Das Ganze geht irgendwie alles in Richtung HSA.
Mal sehen, was von AMD noch so alles kommt, beziehungsweise Intel.

Gruß
 
Herdware schrieb:
Das wäre aber bitter für AMD, wo sie doch gerade erst wieder richtig ins Geschäft kommen. ;)

Ernsthaft.
x86-Kompatibilität sind doch letztich nur <1 Prozent Die-Fläche im Frontend. (Zu Athlon64-Zeiten waren es 5%. Edit: es war 10%) Die eigentlichen Recheneinheiten und erst Recht das Drumherum (Speichercontroller, Cache, PCIe-Controller usw.) sind praktisch architekturunabhängig.

x86 ist also längst nicht mehr, was eine CPU-Architektur zurück halten könnte. Es sind nur ein paar zusätzliche Transistoren, die man gerne mitnimmt, um damit direkte Kompatibilität zu einer riesigen Softwarebasis zu erhalten. Der Rest der CPUs hat praktisch nichts mehr mit 80x86-CPUs aus dem letzten Jahrhundert gemein.

Wie es mit der Core-Architektur weiter geht, bleibt abzuwarten. Ein paar enttäuschende Enthusiasten-CPUs sind jedenfalls noch zu wenig, um deswegen die Totenglocken zu läuten. Wir wissen ja nicht, wo genau die SLX-Probleme liegen. Vielleicht sind es Flaschenhälse (Cache-Latenzen, interne Verbindungen usw.), die sich ohne große Architekturänderungen beheben lassen? Vielleicht Probleme im Produktionsprozess der riesigen Chips? Vielleicht nicht. Wir werden sehn.
Aber x86 wird uns garantiert noch lange Zeit erhalten bleiben.

Das ist ja das schöne am AMD Design. Die können ihr CPUs auch easy auf ARM umstellen.
Intel wird vermutlich was ähnliches haben oder planen aber AMD arbeitet damit schon länger. Mit dem Tool/Prozess sind die Konsolen APUs entstanden
 
Zuletzt bearbeitet:
Virenscanner die ebenfalls nur singlethreaded
Also mein Scanner nützt mehr als 1 Thread wenn man die SSD scannt, bei den Platten merkt man es nicht die sind hier der Flaschenhals.
 
wenn du einen Massenscan machst sicher (da kann es ja zb 16 Files parallel prüfen). Aber mir fällt auch auf dass bei Sophos, AV, Kaspersky und Defender beim Zugriff auf zb eine einzelne Zip oder Exe auch nur ein Thread an Anschlag geht.

Ganz übel is es zb bei Sophos. Wenn man da ne Software mit großen Hilfen und 10000 html Files installiert dauerst gern 10x so lang wie ohne AV ;)

Wer zb auch einfach den Windows integrierten Zip nutzt, zb einfach zum öffnen / entpacken einer heruntergeladenen Zip - auch das nutzt nur ein Kern.

2017-07-19 23_14_04-Task-Manager.png

100% / 12 Threads (bei mir) = ~8.

genauso klick ich auch ganz gern doppelt auf ne Exe in ner zip -> selbes Spiel.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Du gibts dir reichlich Mühe und lieferst auch Quellen. Sowas fehlt hier im Forum.
Ka leider fehlt dies im Forum immer mehr, stattdessen gibt es immer zu viel Polemik und Fanboygehabe. Und sei es nur weil aus Unwissenheit oder sonst welche Motiven von den Einen falsche Schlüsse gezogen werden, was Reviewer ausdrücklich mit einschießt, die die andere dann einfach nachplappern weil sie es für bare Münze halten.
Krautmaster schrieb:
JGibts denn Versuche die zb den 7820X bei fixem Takt gegen den Ryzen 1800X stellen? Um mal auf die Effizienz und Performance zu kommen.
Golem hat die drei bisher veröffentlichten Skylake-X auf einem Asus Prime X299 Deluxe gebencht, die ASUS Boards scheinen es mit dem Takt ja nicht so zu übertreiben wie andere, aber welcher Takt bei welchem Benchmark nun jeweils genau anlag, weiß ich natürlich auch nicht. Wenn man den Takt fixiert, so dürfte es am Ende auch wieder vom jeweiliges gewählten Takt abhängen welche der beiden CPU effizienter ist, je näher man an die Grenze knapp über den 4GHz für RYZEN kommt, umso schlechter dürfte dessen Effizienz im Vergleich zum Skylake-X werden, dessen maximal mögliche Taktfrequenz ja höher liegt.
Beim X265 Benchmark sind die Ergebnisse und die Leistungsaufnahme angegeben und wenn wenn man die s pro Video in Windows pr Stunden umrechnet und dann die Watt der Leistungsaufnahme des Gesamtsystems dadurch teilt, sieht das so so:

CPU Watt s/Video kWs/Video V/h W/V/h
i7 7900X 218W 253 55,2 14,23 15,3
i7 7820X 182W 298 54,2 12,08 15,1
i7 7800X 167W 386 64,5 9,33 17,9
i7 6950X 183W 299 54,7 12,04 15,2
i7 6900K 161W 363 58,4 9,12 17,7
R7 1800X 174W 384 66,8 9,34 18,6

Der um über 29% schnellere 7820X gewinnt hier mit 15,1W pro Video/h bzgl. der Effizienz deutlich gegen den 1800X, bei dem man 18,6W pro Video/h aufwenden muss, über 23% mehr. Bei Blender für den ebenfalls Ergebnisse und die Leistungsaufnahme dabei angegeben sind, liegt der 1800X um knapp über 2% vor dem 7820X:

CPU Watt s/Video kWs/Video V/h W/V/h
i7 7900X 254W 202 51,3 17,82 14,3
i7 7820X 202W 251 50,7 14,34 14,1
i7 7800X 195W 336 61,6 10,71 18,2
i7 6950X 179W 233 41,7 15,45 11,6
i7 6900K 159W 297 47,2 12,12 13,1
R7 1800X 166W 299 49,6 12,04 13,8

Dafür ist der Leistungsvorsprung des 7820X gegenüber dem 1800X hier auch nur knapp über 19%. In beiden Fällen verliert übrigens der 7900X gegen seinen Vorgänger 6950X was die Effizienz angeht, wenn auch bei x265 nur ganz knapp, trotz über 18% Mehrleistung. Bei Blender ist der 7900X dagegen nur 15,3% schneller und braucht dafür 23% mehr Energie pro Video als sein Vorgänger.

Simpl3Moe schrieb:
Das ist ja das schöne am AMD Design. Die können ihr CPUs auch easy auf ARM umstellen.
Warum sollte es bei AMD einfacher sein? Und warum sollte AMD dies wollen? Die ARM Opterons wurden meines Wissen doch sogar schon wieder eingestellt.
Simpl3Moe schrieb:
Intel wird vermutlich was ähnliches haben oder planen aber AMD arbeitet damit schon länger.
Intel hat spätestens seit der Übernehme von Altera auch eine ARM Lizenz und Leute die damit Erfahrung haben. Aber damit wäre Intel von Vielen, bei X86 CPUs sind sie Hausher und so leicht wird auch keiner eine HW-Emulation realisieren können, ohne gegen Intels Patente zu verstoßen.
Simpl3Moe schrieb:
Mit dem Tool/Prozess sind die Konsolen APUs entstanden
Was haben die APUs der Konsolen mit ARM zu tun, ich dachte da wären x86er Kerne drin. Wichtig ist da auch vor allem die iGPU, und da wären AMD mit ARM Kernen nicht gut beraten, da man dann in direkte Konkurrenz mit NVidia treten würde. Intel hat keine ausreichend starken iGPUs um mit AMD bei Konsolen konkurrieren zu können und NVidia hat keine x86er Kerne. Starke APUs mit x86er Kernen kann also nur AMD liefern, oder eben ggf. Intel wobei sie dann auf AMDs GPU zurückgreifen würden.
Ein_Freund schrieb:
Also mein Scanner nützt mehr als 1 Thread wenn man die SSD scannt, bei den Platten merkt man es nicht die sind hier der Flaschenhals.
Bei HDDs bremsen sich parallele Zugriffe gegenseitig gewaltig aus, was bei SSD ja nicht der Fall ist. Von daher wäre es kontraproduktiv wenn die Virenscanner hier versuchen mehrere Dateien gleichzeitig einzulesen.
 
Zuletzt bearbeitet:
Hi, ich möchte eine Workstation für Fem Berechnungen kaufen, mit vielen Kernen zur Parallelisierung. Was ratet ihr mir?
 
Wie sieht es eigentlich so bei AMD boards aus ? Bei meiner letzten Recherche habe ich keine AM4 basierten Boards gefunden, die ECC RAM und Thunderbolt unterstützen.

Von ECC RAM möchte ich eigentlich nicht mehr weg und Thunderbolt wäre für mich interessant, weil mein Recording interface neben einer USB3 auch eine Thunderbolt Schnittstelle hat.

Oder habe ich da bei den falschen mainboard Sockel-Typen bei geizhals.de gesucht ?
 
Zuletzt bearbeitet von einem Moderator:

Ähnliche Themen

W
Antworten
16
Aufrufe
2.872
Whatafall
W
Zurück
Oben