News Supercomputer: TU Dresden erhält Intel-Sapphire-Rapids-System

Bin gespannt wieviel Bitcoins damit geschlürft werden 🤣
🤣🤣
 
  • Gefällt mir
Reaktionen: pvcf und Bitcatcher
Thaxll'ssillyia schrieb:
Wir reden hier nicht über die Randgruppe Consumer, sondern über den Business Bereich, die schon langfristig aufgestellten Verträge zwischen TU Dresden und dem Anbieter des Supercomputers kennt hier wahrscheinlich niemand.
Da gibt es keine langfristigen Verträge in dem Sinne den du meinst. Klar der Vertrag geht seine 5 Jahre, aber mit jeder Ausschreibung hat quasi jeder Anbieter die gleichen Chancen. So lang du nachweisen kannst, dass du die Anforderungen erfüllst, also z.b. ähnliche Projekte schon gemacht hast, hat jeder die gleichen Chancen. Da gibt es keinen Boni für den alten Hersteller. Das wäre in einer öffentlichen Ausschreibung auch gar nicht zulässig...

Gsr997 schrieb:
Wie bei vielen Großprojekten entscheidet eher der Preis, Support und vorallem die Verbindungen (bestehende Verträge etc.)
Siehe oben, Altverträge sind völlig egal in diesem Fall.

Martinipi schrieb:
Wie viel Ahnung hast du denn von Servern und hast du jemals davon gehört, dass viel im Serversegment pro Kern abgerechnet wird? Manchmal sind nicht viele langsame Kerne wirtschaftlich, sondern weniger Kerne die dafür flinker sind...

Nitschi66 schrieb:
@Volker

Wie soll das gehen? Ist zwischen PC-Wasserkreislauf und Heizkreislauf nochmal ein Wärmetauscher mit spezieller Flüssigkeit, die ihren Siedepunkt bei 35°C hat, eingesetzt?
Hat Cloud&Heat was damit zu tun? Immerhin ist ja deren Ursprung in der TU Dresden und das ist genau deren thema.
35°C ist halt wahrscheinlich das was der Hersteller bekommt vom Gebäude. Zurück kommt dann wahrscheinlich halt irgendwas um 40-60°C

Normal gibt es da mehrere Kreisläufe. Einen für die Kühlung mit z.b. Wärmetauschern fürs Gebäude, dann Trocken oder Nasskühler und meist dann noch ner Kältezentrale/Kompressorkühlern für den Notbetrieb. Und dann halt den/die Kreis/e für die Rechnersysteme. Das sind schon recht komplexe Anlagen.

MGFirewater schrieb:
auch im sommer braucht man warmwasser und vielelicht kann man das warmwassser ins fernwärme netz der südvorstadt einspeißen. die wege zum kraftwerk sind überschaubar. schätze so knapp 3km
Ne, mit Fernwärme ist da nichts. Das Wärmeniveu ist zu niedrig als das sich das lohnen würde. Wenn geht es in ein Nahwärmenetz.

Salutos schrieb:
Wollte Intel nicht die nächste Zeit die Finger von HPC lassen?
Na hoffentlich hat die TU Dresden eine ordentliche Vertragsstrafe bei nicht Erfüllung eingebaut.
Intel will kein Prime Contractor mehr sein. Die liefern aber natürlich jedem der will Chips um HPC Systeme zu bauen.

mcsteph schrieb:
Die Leute die das entscheiden sind ü60 und kennen nur Intel. Die beschäftigen sich Null mit der Materie.
...

Wie kann man bitte so nen Mist verzapfen? Schon jemals in dem Bereich tätig gewesen? Offensichtlich nicht, sonst würdest du nicht so nen Stuss verzapfen...

@topic

Schauen wir mal, wann Atos das System liefert und wie es dann tut. Wird sicherlich spannend, wenn die SR Systeme aufschlagen und zeigen was Sie können, oder halt auch nicht.

Intel hatte ja jetzt in letzter Zeit nicht gerade einen track Record was das Abliefern anbelangt.
 
  • Gefällt mir
Reaktionen: TechFA, Floppes, Bigeagle und 2 andere
Knuddelbearli schrieb:
Dresden, Heimatland der AMD Fertigung bekommt ein Intel System während AMD in fast jedem Bereich überlegen ist ...
mcsteph schrieb:
Die Leute die das entscheiden sind ü60 und kennen nur Intel. Die beschäftigen sich Null mit der Materie.
Die TU Dresden hatte mit Atlas, dem Vorgänger des aktuellen Taurus AMD Bulldozer. Die hatten also durchaus AMD und damit ein wenig ins Klo gegriffen :/
Teils war die Leistung durchaus ok wenn man den angepassten AMD Compiler genommen hat, aber da gabs wohl einige schwierigkeiten im Vergleich zum gcc oder intels icc.
Ein Grund könnte auch der Anbieter sein. Bull hat iirc schon die letzten Systeme geliefert (oder nur Taurus?) und bei funktionierender Zusammenarbeit nimmt man eben auch eher das was im Angebot ist. Das ist momentan eben dieses System.
Oder die haben einfach nur die Ausschreibung gewonnen. Was aber eher nicht ganz zufällig passiert. Ist sehr stark eine Frage wie man die Anforderungen formuliert.

frazzlerunning schrieb:
Das wird im Sommer gut funktionieren.
Tuts afaik tatsächlich problemlos. Man stelle sich vor dass da Leute mitplanen die später auch damit arbeiten. Leute die damit Forschung machen wollen und die sogar studiert haben dafür ^^

Knuddelbearli schrieb:
Auf solchen Servern läuft ja normalerweise eigenes zeug, den, wenn man schon soviel Kohle für die Server raushaut, soll es nicht an den passenden Codeoptimierungen für paar zehntausend Euro scheitern ...
Da läuft was immer die Mitarbeiter, Studenten und Azubis mit Zugang so an Code drauf werfen. Vom "Hello World!" auf 256 Kernen über Python, Perl bis zu handoptimierten Assemblerstückchen. Aber das ZIH bietet vermutlich auch hilfestellungen bei bedarf. Schließlich kostet Rechenzeit Geld.
Aber es ist nicht so als würde da nur hochspezieller optimierter Code laufen. Nicht jeder Biologe, Chemiker, etc ist nebenbei auch vollzeitprogrammierer nur weil er ein HPC Projekt hat.

MGFirewater schrieb:
auch im sommer braucht man warmwasser und vielelicht kann man das warmwassser ins fernwärme netz der südvorstadt einspeißen. die wege zum kraftwerk sind überschaubar. schätze so knapp 3km
Das bleibt schon aus praktischen Gründen in der näheren Umgebung. Einmal geht die Wärme auch verloren, dann ist es auch nicht soo wahnsinnig viel im Vergleich zu dem was ein Heizkraftwerk liefert. Da mal eben 3 km isolierte Leitung für die paar hundert kw heizleistung legen von denen dann noch die hälfte ankommt lohnt wohl nicht.
Denn dazwischen muss man ja noch mal einen Wärmetauscher setzen. Man kann nicht einfach das Kühlwasser direkt nehmen, da das vermutlich im geschlossenen Kreislauf verwendet wird. Die Zusammensetzung muss innerhalb enger spezifikationen liegen damit man nicht nach einer Weile zugesetzte Kühler hat, oder mehr korrosion als geplant. Wasserkühlung macht ja schon im kleinen oft genug Ärger mit sich absetzendem 'schmodder' aber dort ist das ein recht großes Leitungssystem. Luft ziehe darfs auch nicht weil dann erst Recht bakterien und Algenwachstum droht. Das ist afaik auch ganz ohne Luft schon ein Problem, man hat ja schon wärme und sicher irgendwelche Spuren von als Nahrung tauglichen Sachen wie Schwefel.
 
  • Gefällt mir
Reaktionen: Skyphane und pvcf
RichieMc85 schrieb:
Stimmt weil die Golden Cove Kerne so schlecht sind. Wenn die AMD Fanboys mal Ihre Brille absetzen würden.
Hat niemand behauptet.

Aber das Intel so viel effizienter ist, kann nur mit dicker Intel-Fanboybrille behauptet werden. Deswegen brauchen wir hierzu nicht weiter diskutieren.
 
  • Gefällt mir
Reaktionen: TechFA und Anon-525334
MasterAK schrieb:
Hat niemand behauptet.

Aber das Intel so viel effizienter ist, kann nur mit dicker Intel-Fanboybrille behauptet werden. Deswegen brauchen wir hierzu nicht weiter diskutieren.

Öh, vielleicht nicht die an der Kotzgrenze laufenden K/KS vergleichen?
 
Schade, hätte mich auch gefreut, wenn Dresden als ehemaliger AMD Standort auf Epyc gesetzt hätte. :(
 
MasterAK schrieb:
Hat niemand behauptet.

Aber das Intel so viel effizienter ist, kann nur mit dicker Intel-Fanboybrille behauptet werden. Deswegen brauchen wir hierzu nicht weiter diskutieren.


Mal ein paar aktuelle Tests gelesen oder bist bei Rocket Lake gedanklich hängen geblieben?

Wenn selbst Tester wie Igor von einer Deklassierung von AMD sprechen sagt das wohl einiges aus. Da muss man kein Fanboy sein um zu sehen, dass Intel bei jetzt wieder gleicher Fertigung besser ist.

Warten wie mal die ersten Berichte von Sapphire Rapids ab. Sollte ja nicht mehr zu lange dauern.
 
Mir juckts nachdem ich meinen 6850k gegen einen 5900x ausgetauscht habe wieder in den Fingern und überlege wieder auf nen HEDT zu springen. Mal sehen was die Zukunft bringt.
 
Zuletzt bearbeitet:
Bigeagle schrieb:
Da mal eben 3 km isolierte Leitung für die paar hundert kw heizleistung legen von denen dann noch die hälfte ankommt lohnt wohl nicht.
Denn dazwischen muss man ja noch mal einen Wärmetauscher setzen. Man kann nicht einfach das Kühlwasser direkt nehmen, da das vermutlich im geschlossenen Kreislauf verwendet wird
Der Beitrag bringt einiges gut auf den Punkt.

Zur Abwärmenutzung direkt: So ein Computer ist halt keine Heizung. Wenn so ein Cluster im Winter einen Tag ausfällt weil z.B. das Filesystem hängt, dann braucht es ein Backup für die Heizung. Ebenso wenn der Computer durch einen Nachfolger ersetzt wird.

Im Sommer dagegen gibt es keine Abnehmer für die Abwärme. Die muss dann zum Dach raus, der Computer will schließlich weiter gekühlt werden. Man braucht also auch dafür eine zweite Lösung neben "dann heizen wir eben unser Gebäude".

Von daher: Die Abwärmenutzung ist gerade in Bezug auf den Klimawandel und Ressourcen eine top Idee.
Aber die Umsetzung alles andere als straight forward.
 
Skyphane schrieb:
Im Sommer dagegen gibt es keine Abnehmer für die Abwärme. Die muss dann zum Dach raus, der Computer will schließlich weiter gekühlt werden. Man braucht also auch dafür eine zweite Lösung neben "dann heizen wir eben unser Gebäude".
Betriebssauna und Schwimmbad mit im Sommer extra warmem Wasser. :cool_alt:
Einfach nur in die Luft rausblasen wäre doch verschwendung.
 
TechFA schrieb:
Bei GlobalFoundries werden doch noch immer hunderttausende bis Millionen I/O-Dies für Ryzen, Threadripper und Epyc gefertigt, oder nicht? Meinst nicht, die sind noch eine ganze weil mit der Abarbeitung von AMD-Aufträgen beschäftigt?
Ne werden sie nicht. GF hat nur max. 14nm Prozess geschafft und kann daher keine modernen 10/7nm CPUs fertigen und wird auch Zukunft keine 5/4/3 nm usw. fertigen. Investitionskosten sind zu hoch.
 
Nero_XY schrieb:
Ich vermute dass entweder die angrenzenden Gebäude mit modernen Flächenheizungen ausgestattet sind, denen 35°C im Vorlauf reichen oder das Wasser wird mittels Wärmepumpe vor der Nutzung auf ein höheres Temperaturniveau gebracht.
Die Gebäude braucht man dazu nicht unbedingt sondern einen großen Wasserspeicher der die Wärme immer abnimmt egal ob Sommer oder Winter.
markox schrieb:
Warum, das Wasser zum kühlen ist 35°C warm, warum auch immer.
Das hat Umweltgründe weil man damit jede Menge Energie für die Kühlung sparen kann.
 
Antar3s schrieb:
14nm Prozess geschafft und kann daher keine modernen 10/7nm CPUs fertigen und wird auch Zukunft keine 5/4/3 nm usw. fertigen. Investitionskosten sind zu hoch.
Erstens redete ich von CPUs und die I/O-Dies der aktuellen Generationen seit dem 1. Ryzen sind soweit ich weiß noch auf 14/12nm bei GloFo.

Zweitens hat Global Foundries selbst schon mit ihren 14nmLLP ein höheres tatsächliches Leistungspotential als Intel auf ihrem 14nm++ geschafft. Intel's 14nm++ war also schon 2017 GloFo's 14nm bereits unterlegen, was die Transistordichte angeht. CB: AMD Ryzen: Zen mit 10 % Flächenvorteil gegenüber Intel Skylake

Und drittens steht es noch immer in den Sterden, ob GloFo 7nm weiter angeht, oder nicht. Vergiss nicht, sie haben das Nanometer-Rennen und 7nm nicht aufgegeben, sondern mussten es vorerst auf unbestimmte Zeit verschieben, weil ihre Investoren sich geweigert haben, ihnen wieder die nächsten +20 Milliarden in den Rachen zu werfen (weil GloFo schon wieder ihre neueste Fertigung hopps gehen lassen wollte, nur um mit TSMC und Samsung zu konkurrieren, obwohl man auf dem Prozess nicht einmal in die Gewinnzone gekommen war und die Kosten der letzten Fertigungsumstellung wieder eingefahren wurden).

Im Gegensatz zu Intel, hatte GlobalFoundries bei 7nm niemals das Problem der fehlenden Kompetenz, sondern es war immer bloss eine Frage des Geldes. Bei Intel ist es seit über zehn Jahren das genaue Gegenteil;
Cash en masse is da, nur die Kompetenz fehlt bei Intel, die Prozesse auch umzusetzen und zum Laufen zu bekommen. Kurz: Was GloFo hat, hat Intel nicht und umgekehrt.

GloFo hatte bereits eine Prototypen-Fertigung auf 7nm am laufen, und brauchte Milliarden für ein eigenes Werk oder aber wollte die aktuelle nagelneue Fertigung in den Eimer kloppen um von 14nm auf 7nm umzurüsten. Währenddessen man in der Zeit der Umrüstung keine Einnahmequelle gehabt hätte.

Purer Schwachsinn und hochgradig destruktive Einstellung der Geschäftsführung!
Nur deswegen haben die Investoren ihnen den Hahn zugedreht und gesagt, dass GloFo erst mal wieder etwas Gewinn auf 22nm und vor allen Dingen 14nm erwirtschaften solle, ehe weitere Gelder freigegeben werden.

Jetzt gehen sie an die Börse und es gibt frisches Kapital. Kann durchaus sein, dass GloFo in ein, zwei Jahren (wieder) 7nm hat, ganz im Gegenteil zu Intel.

… weiß TechFA
 
  • Gefällt mir
Reaktionen: pvcf
TechFA schrieb:
Im Gegensatz zu Intel, hatte GlobalFoundries bei 7nm niemals das Problem der fehlenden Kompetenz, sondern es war immer bloss eine Frage des Geldes. Bei Intel ist es seit über zehn Jahren das genaue Gegenteil;
Es ist genau die fehlende Kompetenz, wieso GF den 7nm Prozess nicht zum Laufen bekommen hat und der Geldgeber sich gezwungen sah weitere Geldverschwendung zu vermeiden und es war die fehlende Kompetenz, wieso man bereits bei 14nm auf einen Samsung Prozess zurückgegriffen hat und sich später bei IBM bediente. GF war von Beginn an unfähig mit Intel mitzuhalten oder wirkliche eigene Punkte in der Entwicklung zu setzen, sonst hätte es nicht ständige Finanzspritzen gebraucht.

Es hat schon seinen Grund wieso AMD sich entschlossen hat zu TSMC zu gehen und damit die Entwicklung von GF maßgeblich beeinflusst hat. Die sich selbst gesetzten Ziele, die man ja immer wieder vollmundig beworben hat, hat die Firma jedenfalls nie erreicht.
It is noteworthy that when GlobalFoundries first announced its 7LP platform in September 2016, it said that it would start risk production of processors using this technology in early 2018 (PR), which means that the first chips should have been taped out before that. When the company detailed the process in June 2018, it said that it expected to start “volume production ramping in the second half of 2018” (PR), which would be close to impossible if customers taped out their first chips only in Q4.
https://www.anandtech.com/show/13277/globalfoundries-stops-all-7nm-development
In August 2018 hat dann dann Mubadala endgültig den Stecker gezogen und das hätten sie nicht, wenn sie noch wirklich Aussicht auf einen Erfolg gesehen hätten. Wären die Maschinen und die Technik für die 7nm Fertigung nicht bereits vorhanden gewesen, hätte man den Prozess gar nicht erst entwickeln können.

Wenn selbst IBM lieber zu Intel geht, statt zusammen mit GF zu arbeiten, die seinerzeit die Fabs von IBM übernommen haben, stellt klar wie die Situation bei GF aussieht. Mittelfristig wird man dort einen Prozess von TSMC oder Samsung lizensieren, irgendwo vorne mitzumischen wird GF unter den aktuellen Besitzverhältnissen nicht mehr.

TechFA schrieb:
Jetzt gehen sie an die Börse und es gibt frisches Kapital. Kann durchaus sein, dass GloFo in ein, zwei Jahren (wieder) 7nm hat, ganz im Gegenteil zu Intel.
Der typische "TechFA" mit seinem Feldzug gegen Intel. Erde an Raumstation, die weiter oben von dir beschworene Transistordichte vom N7 Prozess, hat Intel längst mit dem Intel 7 Prozess erreicht.
 
Zuletzt bearbeitet:
tomgit schrieb:
"Wenigen" Fällen... In fast allen mathematischen Anwendungen sind Intel-Systeme schneller.

Spannend. Gibt's da mehr Infos? Ich nutze grade das erste Mal SPSS Statistics auf AMD und es ist Hinsicht auf SC und MC Leistung der stärkste Rechner, den ich bisher hatte. Beim Berechnen großer Bootstraps kann ich aber erstmal Kaffee kochen gehen. Da war mein alter Skylake Mobile i5 schneller. Als würde sich die Kiste am Programm verschlucken.
 
Möhrenmensch schrieb:
Gibt's da mehr Infos?
Die Problematik um Intels MKL mit AMD ist eigentlich schon länger bekannt: https://www.computerbase.de/2020-09/intel-mkl-2020-2-zen-kernel-amd-workaround/
Wie in der News steht, gibt es zwar Workarounds, aber ich würde mich da nicht wirklich drauf verlassen. Und noch weniger, ob die "Probleme" mit neueren Kernel-Versionen behoben wurden ;)

Möhrenmensch schrieb:
Obligatorisches "Iiiieh" aus der R/Python-Ecke :D

Möhrenmensch schrieb:
auf AMD und es ist Hinsicht auf SC und MC Leistung der stärkste Rechner, den ich bisher hatte.
Darum find ich es auch nicht immer gut durchdacht, wenn die automatische Empfehlung bei Laptops für Studis prinzipiell ein System mit AMD-Chip ist.
Ja, AMDs Chips sind super und wenn es um Java, C oder C# geht bestimmt einem Intel-4Kerner vorzuziehen. Aber ich hatte selbst gemerkt, welche Welten Unterschied es ausmacht, ob der Chip von Intel oder AMD ist, wenn man mit Python oder R arbeitet. Hatte dieselben Resultate wie du, auch wenn es absolut unlogisch erscheint. Darum jetzt auch ein i7, obwohl mir ein Ryzen 9 5950X doch schon lieber gewesen wäre.
 
  • Gefällt mir
Reaktionen: Möhrenmensch
Möhrenmensch schrieb:
Spannend. Gibt's da mehr Infos?
Ich wollts ja gerade schreiben! xD
ComputerBase: Intel MKL 2020.2: Neuer AMD-Workaround schneller als Zen-Kernel

tomgit schrieb:
Darum find ich es auch nicht immer gut durchdacht, wenn die automatische Empfehlung bei Laptops für Studis prinzipiell ein System mit AMD-Chip ist.

Ja, AMDs Chips sind super und wenn es um Java, C oder C# geht bestimmt einem Intel-4Kerner vorzuziehen. Aber ich hatte selbst gemerkt, welche Welten Unterschied es ausmacht, ob der Chip von Intel oder AMD ist, wenn man mit Python oder R arbeitet. Hatte dieselben Resultate wie du, auch wenn es absolut unlogisch erscheint.
Du schreibt ja, dass "Intels MKL ist da ein mächtiges Werkzeug". Joa, stimmt absolut!
Vor allen Dingen im verkrüppeln vom Wettbewerb und der systematischen Diskriminierung von AMD-Systemen durch Intel's Software-Bibliotheken (Intel-Compiler lässt grüßen..).

Mit anderen Worten: Du befürwortest es also, dass der Wettbewerb von/durch Intel systematisch, vorsätzlich und ohne Not durch das Intel'sche Software-Universum in der Leistung beschnitten und ausgebremst wird, nur damit Intel den Wettbewerbern eins auswischen und AMD schaden kann? Also dass Intel deine eigene Hardware nur aus niederen Beweggründen ausgebremst und in der Leistung bei deiner Arbeit gehemmt wird?

tomgit schrieb:
In fast allen mathematischen Anwendungen sind Intel-Systeme schneller - was vermutlich auch daran liegt, dass Intel selbst die Hand drüber hält, was sie in ihrer MKL wem freigeben.
Ja, in fast allen Berechnungen sind Intel-Systeme schneller, aber auch nur, weil AMD oft ganz zielbewusst durch Intel ausgebremst wird, nur um Intel-Prozessoren künstlich in einem besseren Licht dastehen zu lassen.

tomgit schrieb:
Darum jetzt auch ein i7, obwohl mir ein Ryzen 9 5950X doch schon lieber gewesen wäre.
Ganz ehrlich? Wenn Du obige Fragen mit Ja! beantworten kannst, verdienst Du es garnicht, ein performanteres AMD-System zu haben. Weil Du unterstützt ja die systematische Wettbewerbsbehinderung durch die Hintertür.

Die ewigen Intel-Geschichten mit der Diskriminierung von AMD-Prozessoren durch die Intel-Libs sollte illegal sein und unter Strafe stehen. Und die Kartell-Strafe von +1 Milliarde sollte die EU verzehnfachen, dann hören wenigstens unter dem jetzigen CEO diese verachtenswerten Geschäftspraktiken vielleicht mal auf..

Es gab nie einen Grund, weswegen AMD ausgebremst wurde. Das war lediglich den Geschäftsgebaren von Intel zu verdanken. MKL, Python und Konsorten können mit Work-Around zig mal schneller sein, wenn sie dürften.

TechFA
 
TechFA schrieb:
Mit anderen Worten: Du befürwortest es also, dass der Wettbewerb von/durch Intel systematisch, vorsätzlich und ohne Not durch das Intel'sche Software-Universum in der Leistung beschnitten und ausgebremst wird, nur damit Intel den Wettbewerbern eins auswischen und AMD schaden kann?
Nur um mal in den Whataboutism abzudriften: AMD gibt auch nicht sämtliche Technologien frei. Die gesamte Infinity-Technologien sind ebenfalls proprietär, auch wenn man hier ebenfalls argumentieren kann, dass der Markt als Ganzes einen Vorteil davon hätte, wenn andere Systeme dies ebenfalls integrieren dürften. Prozessoren mit unterschiedlichen ISAs ist ebenso ein AMD-exklusives Patent.
Gab es denn einen Shitstorm, weil Mantle damals exklusiv war?
Sie sind auch stetig dabei sich selbst mehrere Beine zu stellen, um die eigenen Geräte gerade für Einsteiger unattraktiver zu machen. ROCm ist weiterhin ausschließlich für Enterprise- und abgesehen von Vega bis Polaris verfügbar: https://github.com/ROCm/ROCm.github.io/blob/master/hardware.md

TechFA schrieb:
Also dass Intel deine eigene Hardware nur aus niederen Beweggründen ausgebremst und in der Leistung bei deiner Arbeit gehemmt wird?
Würdest du verlangen bzw. erwarten, dass Intel-Systeme auf AMD-maintained Software relationär schnell läuft?
TechFA schrieb:
Ganz ehrlich? Wenn Du obige Fragen mit Ja! beantworten kannst, verdienst Du es garnicht, ein performanteres AMD-System zu haben. Weil Du unterstützt ja die systematische Wettbewerbsbehinderung durch die Hintertür.
Ob ich diese Hardware "verdiene" hat letztlich nur mein Geldbeutel zu entscheiden, und nicht irgendwelcher ideologische Quark.
TechFA schrieb:
Es gab nie einen Grund, weswegen AMD ausgebremst wurde. Das war lediglich den Geschäftsgebaren von Intel zu verdanken. MKL, Python und Konsorten können mit Work-Around zig mal schneller sein, wenn sie dürften.
Und warum agiert AMD nicht dagegen? Wenn der Workaround nur ist, sich als Intel-CPU auszugeben, warum machen sie es nicht? Oder besser: Warum entwickelt AMD keine eigene MKL oder zumindest einen Layer, um die (massiv) benachteiligten Aspekte zu umgehen? Gerade zur Zeit, wo AMD mehr als nur im Auftrieb ist, wäre es vielleicht mal bitter nötig, in eigene Technologien zu investieren, die nicht nur bei Cinebench oder Geekbench tolle hohe Zahlen produzieren.
Warum sollte es die Aufgabe des Nutzers sein, sich um den Workaround zu kümmern? AMD wird sicherlich ebenfalls ebenbürtig in Datenzentren betrachtet werden wollen, nur steht der eigene Unwillen, weder gegen Intel als gegen Nvidia in irgendeinem Aspekt außer Vorschlaghammer antreten zu wollen.

Manche Leute sollten vielleicht ihren Fanboy-Bias ablegen. Wie ich sagte, ich wäre gerne auf AMD umgestiegen - sowohl bei CPU, als auch bei GPU. Da ich jedoch mit Python/R arbeite und dabei u.A. auf OpenCV zurückgreife, hat AMD in beiden Aspekten das Nachsehen gehabt. Ein Linux-System ohne ständiges Rumziehen bei Treiber-Updates - zumal die Nvidia-Treiber unter Linux aktuell noch zickiger sind als das Windows-Pendant, womit ich mich gerade rumschlage - wäre mir absolut lieber gewesen.
Aber dazu muss AMD halt mal investieren.
 
Zurück
Oben