News Quartalszahlen: AMD wächst im Server, wäh­rend Radeon stark einbüßt

Icke-ffm schrieb:
ja aber zu exorbitanten Margen, selbst Apple hat die Marge nicht so weit angezogen, und deren ökosystem erachte ich als besser wie das von Nvidia.
Die extrem hohen Margen holt Nvidia aber nicht bei den Gaming GPUs, sondern bei ihren Serverprodukten. Und hier hat Nvidia den Markt den sie bedienen auch selbst aufgebaut. Bei den Gaming GPUs dürften die Margen im Branchen üblichen Rahmen liegen.

Die Margen von Apple und Nvidia sind nicht vergleichbar da sie vollkommen andere Produkte anbieten.
Apple hat mit den Macs die doppelte Marge als die großen PC Anbieter.

Und wie sich Apple bei ihrem Store aufführt ist unvergleichlich. Einfach nur Gier. Und dann keinen Plan haben was man mit dem zusammengerafften Cash anfangen kann.

Icke-ffm schrieb:
Wer hoch steigt kann tief fallen, Intel war step 1 Nvidia wird folgen sobald AMD 50% Marktanteil hat gegenüber Intel können sie es sich leisten auch gegen Nvidia anzustinken,
Nvidia ist nicht Intel.

Und die 50 % Marktanteil sind noch lange hin und auch nur dann möglich wenn AMD bei den CPUs in jeder Generation absolut Top liefert.
Icke-ffm schrieb:
für AMD wäre es genial wenn Nvidia die Marge auf +100% steigert, dann könnte AMD mit einer 10%Marge marktanteile holen
Das wird nicht funktionieren. Mit 10 % Operation Marge wäre es ein Balance Akt für AMD.

Der Witz an den hohen Margen von Nvidia ist, dass Nvidia ein sehr hohes Volumen hat und niedrige Kosten je Die hat. Ein Grund ist dass Nvidia sich mehr GPU Dies je Generation leisten kann als AMD. Damit kann Nvidia die Waferfläche effektiver als AMD umsetzen.

Die echten PC Gamer wollen Nvidia GPUs und sind bereit dafür auch ordentlich Geld auszugeben. Das haben hier im Thread einige Leute bestätigt. Wo ist also das Problem? Ich habe jetzt nicht den Eindruck dass abgesehen vom Platzen der beiden Crypto Blasen der Absatz der diskreten Gaming GPUs gelitten hat.
Folglich sind die Preise von Nvidia in Ordnung.

Einen Preiskrieg kann man nur gewinnen wenn man die niedrigeren Kosten hat. Und die hat IMO AMD nicht.
Wenn AMD zu viele GPUs absetzt wird Nvidia die Preise ein wenig senken, dann renkt sich das für Nvidia sofort wieder ein. Je aggressiver AMD agiert, desto schneller landet AMD in den Miesen ein.

Icke-ffm schrieb:
Nvidia hat top Ware aber auch eine top Marge und das Chiplet design von AMD scheint noch nicht wirklich konkurrenzfähig zu sein,
IMO ist dies kein Problem mit dem Chipletdesign. RDNA 3 erreicht die Taktziele nur bei viel zu hohem Verbrauch. D. h., das Problem sitzt im GCD. Auch Navi 33 kann nicht überzeugen, für dieses bisschen Ersparnis an Chipfläche haben sich die ganzen Entwicklungskosten nicht gelohnt. Auch bei Navi 33 war eine höhere Performance geplant.

Nach allem was man hört wird RDNA 4 nur mit 2 Dies kommen, wobei der kleinere eigentlich nur für Notebooks taugt.

Icke-ffm schrieb:
also macht es sinn erstmal Intel einzudämmen gerade was GPUs betrifft ist ARK und Gaudi wohl Instruckt jetzt schon unterlegen, wenn Intel das segment ganz einstellt und Nvidia die Marge auf 300% bringt hat AMD geld ohne ende um auch die anzugehen.
AMD ist finanziell gut aufgestellt. Im Juni ist ein Termin bei dem 750 Mio USD Schulden fällig werden. AMD wird dies mit Cash begleichen und keine neue Papiere ausgeben.

Die Zahlen nach GAAP enthalten Abschreibungen auf immaterielle Unternehmenswerte, die hauptsächlich aus der Übernahme von Xilinx herrühren. Da diese Übernahme rein auf Aktien erfolgt ist, steht den Abschreibungen kein Verlust an Cash gegenüber.

Und AMD hat in den letzten Jahren massiv in F&D investiert, wie es gestern Mark Papermaster dargelegt hat

Ich denke nicht dass Intel GPUs einstellt. Sie brauchen sie für das Client-Geschäft. Also ist es für einen so großen Laden wie Intel kein Problem auch diskrete Grafikkarten anzubieten. Intel muss halt weiter an den Treibern arbeiten. Was ich nicht verstehe ist die dilettantische Strategie. Vernünftig wäre gewesen den Desktop mit der ersten Generation auszulassen und sich voll auf die Notebooks zu stürzen. Die OEM hätte sich von Intel schon zu einem tollen Bundle Deal mit CPU und GPU überreden lassen.
Ergänzung ()

incurable schrieb:
Intel hat eine verlorene Dekade in der Prozessentwicklung erlebt.
Das ist eine herrliche Formulierung. Ein Unternehmen "erlebt" nicht, ein Unternehmen unternimmt. Und im Fall von Intel hat es mit großen Tohuwabohu nichts unternommen.

Wie sagte ein Fahrer als er dafür angeschnautzt wurde, dass er das Fahrzeug verrotten lies, "Ich hab doch gar nichts gemacht."

incurable schrieb:
Und das ganz ohne dass da jemand faul gewesen wäre.
Das Unternehmen wurde faul und träge.

Wie hat doch Pat Gelsinger gemault, dass das alte Vergütungssystem eingestellt wurde, dass die bezüge eng an das erreichen der persönlichen Ziele gekoppelt hat.

Jim Keller erklärt zu seiner Zeit bei Intel, dass seine Hauptaufgabe war allen klar zu machen, dass Moores Law nicht tot ist.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Und im Fall von Intel hat es mit großen Tohuwabohu nichts unternommen.

Das Unternehmen wurde faul und träge.
Du kannst das von mir aus auch ruhig noch drölf mal anders formuliert wiederholen, davon wird es nicht richtiger.

Du solltest Dir bewusst werden, dass das Scheitern an den gesetzten Zielen niemanden "faul und träge" macht.

ETI1120 schrieb:
Vergütungssystem
Die physikalische Realität interessiert sich einen feuchten Kehricht um Vergütungssysteme. Wer glaubt, dort sein Heil zu finden, fischt im Trüben.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Clonedrone schrieb:
Keine Ahnung, was dein Problem ist.
Mein Problem ist, dass ich damals diesen Schrott nicht rausnehmen konnte und nur den Reiter "Leistung" behalten konnte.
Nur Display und Funktionseinstellungen. Mehr nicht, ich will den Rest nicht, das hat mMn. in dieser Form nichts in diesem Ding zu suchen.
Es will ein All-In-One SchnickSchnack Softwarepaket sein und das ist es nunmal - leider nur nicht in Gut....
incurable schrieb:
aber die Verzögerungen, die bei der Verwendung dieser Oberfläche entstehen sind eine Katastrophe.
Das einzige Delay das es gibt ist schlicht beim G-Sync/Monitorsettings aktivieren.
Die Globalen Settings sind quasi direkt angenommen, kein Delay.
Oder was meinst du genau?
Natürlich ist auch bei NV nicht alles Gold was glänzt, aber es ist eben für ewig Gestrige (so werd ich wohl bald genannt^^) wie mich so, ich mag es genau so wie es war und ist. :mussweg:
Clonedrone schrieb:
AMD kann ich mir den Afterburner ersparen
Ich brauch den Afterburner nur wegen dem OC - Adrenalin hat heute immer noch Probleme mit dem OC, manchmal behält er Settings nicht etc., das weiß ich, weil n Kumpel von mir diese Probleme mit seiner 6900XT immer noch hat und wöchentlich flucht.
Desweiteren für was brauch ich Monitoring über Adrenalin? Es ist nicht umfänglich.
Selbst Afterburner ist nicht umfänglich genug zusammen mit RTSS.
Richtiges Monitoring ist CapFrameX oder HWinfo64 oder AIDA64 als Sensorquelle für RTSS.
Das einmal weggesichert als Presets und alles wird gut....
Jeder hat andere Bedürfnisse, schon klar.
So akzeptiere ich, dass es dir reicht und über die 90% sinnlosen Funktionen hinwegsiehst und das viel zu große unübersichtliche Overlay gutheissen kannst.
Ich kann das nicht.
Mir ist es zu überfunktional - dann kann es das eben nicht richtig wie ich mir das vorstelle und auf der anderen Seite auch noch unübersichtlich was die Reiter angeht bzw. die GUI Elemente.
NV ist hier einfach schlicht unterwegs, alles was man an wichtigen Settings sucht findet man in 2-3 Reitern, klickt kurz drauf, fertig - zu - no Bloatware im Hintergrund.
Was man halt auch bedenken sollte - all diese Module in der Suite sind Dienste, die man nicht benötigt, die laufen im Hintergrund mit und mir als User ist nicht klar wieso das so sein sollte, wenn ich es nicht nutze.
Ja ich bin da pingelig und eigen, aber jeder hat da so seine Präferenzen.
 
Eli0t schrieb:
Also Zen5 kommt mit 16 Kern CCDs und 32 Kern CCDs. Also für normalsterbliche sind wohl 16 Kerne auf einem CCD gut genug

wo kommt das denn her? laut geleakten folien ist zen5 ein 8 core CCD und zen5c ein 16 core CCD, und die c kerne sind mit zen4 nicht als chiplets auf den desktop gekommen und ich rechne nicht damit, dass sich das für zen5 ändert.

das heißt zen5 desktop maximal 16 kerne mit zwei CCDs - also quasi 1:1 zen4 mit 10-"30"% mehr ipc. zen6 kommt vielleicht mit 16 kern CCds, aber da ist nicht mal sicher, ob das ding für am5 kommt. laut amd ja eher nicht.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
incurable schrieb:
Du solltest Dir bewusst werden, dass das Scheitern an den gesetzten Zielen niemanden "faul und träge" macht.
Dann nenne es eben Totalversagen auf der ganzen Ebene.

Ich habe bis heute keine vernünftige Erklärung gehört was schief gelaufen ist. Es sind alles nur Halbheiten.

Es war vielleicht ein bisschen arrogant nach den Problemen, die man schon bei 14 nm hatte bei 10 nm den ganz großen Sprung zu wagen. Der ging schief. Fehlschläge gehören bei gewagten Projekten dazu.
Aber das war doch kein Problem für Intel, sie lagen beinahe 1 1/2 Generationen in Front.
Die eigentlichen Fragen zur Prozessentwicklung sind:
  • Man lernt aus den Fehlschlägen am meisten, warum ist dies Intel nicht gelungen und hat im 2. versuch einen sauberen Prozess hinbekommen?
  • Warum hat es Intel erst mit dem 4. Versuch geschafft einen stabilen 10 nm Prozess hinbekommen?
  • Warum wurden auch die Folgeprozesse so lange verzögert?
  • Warum sah Bob Swan keinen anderen Weg die Sache in den Griff zu bekommen, als zu TSMC zu gehen?

Ich habe Dich schon einmal gefragt, warum hat Intel 2018 Jim Keller geholt, wenn in der Entwicklung bei den Kernen alles so toll war? Auf der Architekturseite war doch Intel für viele Jahre mit kleinen Schrittchen zufriede gewesen.

Und warum die Lieblingsgeschichte von Jim Keller zu dieser Zeit, dass er der Firma dessen Mitgründer und langjähriger CEO Gordon Moore war, erst wieder klar machen musste, dass Moores Law nicht tot ist?

incurable schrieb:
Die physikalische Realität interessiert sich einen feuchten Kehricht um Vergütungssysteme. Wer glaubt, dort sein Heil zu finden, fischt im Trüben.
Wegen welcher physikalischer Realität wurde das Ziel der Einführung von 10 nm um 5 Jahre verfehlt? Ich denke diese eingebildete physikalische Realität war der Vorwand dieses Vergütungssystem abzuschaffen.

Die Geschichte mit dem Vergütungssystem ist sehr wohl Kern der Sache. Und passt sehr gut zur Geschichte von Jim Keller. Und liefert auch eine Erklärung warum man die Prozessleute so lange herumbasteln lies. Man hat sich IMO eingebildet, wenn wir es nicht schaffen, schaffen es die anderen erst recht nicht.

Ein weiterer Aspekt ist dass William Holt der langjährige Chef der Intel Technolgy and Manufactoring Group im Juni 2016 in Ruhestand ging. Also derjenige der die ambitionierten Ziele für den abgesegnet hatte, ging von Bord als man mit den Prozess nicht reif für die HVM bekam.
 
Eli0t schrieb:
Na wenn dich RT nicht interessiert ist eine 7800XT immer noch ein gutes Stück Hardware und mit der 8800XT sollte es noch besser werden :)
Ich hab nicht behauptet, RT interessiert mich nicht. Es hat mich zu RDNA2 Zeit nicht wirklich interessiert, weil es da halt noch sehr am Anfang war. Müsste ich aber jetzt eine neue Graka kaufen sollte die RT schon einigermaßen gut können.

Und ne, die 7800XT find ICH ist kein gutes Stück Hardware. Die kann sich ja kaum von ihrem Vorgänger absetzen und von meiner 6900XT ist es wahrscheinlich auch eher ein downgrade, weil AMD den gleichen scheiß gemacht hat wie Nvidia. Einfach die Namen eine Stufe weiter hochgesetzt. Die 7800XT wäre wenn überhaupt eine 7800 wenn nicht 7700XT.
 
  • Gefällt mir
Reaktionen: Flaschensammler
Ich weiß nicht was hier viele haben. Die RX 7900 XTX von Sapphier ist ne verdamd gute Karte wenn man wie ich auf diese RTX Spiegeleffekte verzichten kann. Zu mal ich diese vaporshampers für ne gute Idee und sehr Inovativ hielt. Blöd war nur das die Karte bei 2 Monitoren im idle anfangs zu viel Strom saugte.

Ansonsten die beste Preisleistungs Karte für die nächsten 3-4 Jahre. Da können die Grünen überhaupt 0 und garnicht mithalten.
 
JoeDoe2018 schrieb:
Der 7800X3D ist einfach nur großartig, der verbraucht ca. 30W in Fortnite dazu die 7900XT die ich unter DirectX 12 auf 160W auf einen Ultra WideScreen gedrosselt habe.
Falls du eine Grafikkarte in Spielen wegen des Verbrauchs verurteilst spiele lieber analoge Brettspiele oder gehe nur noch im Wald spazieren statt vor einer einem Monitor zu sitzen ;) das wäre ökologisch am sinnvollsten.

Eine Grafikkarte ist zur Leistungsabgabe in Spielen da und im Desktopbereich regelt jede mittlerweile ordentlich sogar ohne Lüfterbetrieb herunter, welches auch keine Kunst ist.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Ich hoffe weiter darauf, dass Intel sein Grafikkartengeschäft weiterführt und sich deren Opensource-Treiberentwicklung in die gleiche Richtung bewegt, wie bei AMD.

Ich habe jetzt eine Nvidia-Karte im Rechner und damit keine Probleme unter Linux, auch nicht bei den Spielen, die ich nutze. Es zeigt sich aber trotzdem, dass sich, durch die offen verfügbaren Informationen/Quellen, die Integration in andere Softwareprojekte und die Fehlerbehebung deutlich einfacher gestaltet, wenn doch mal etwas nicht funktioniert.

Grundsätzliches:
Grafikkarten sind bei mir hauptsächlich für Spiele relevant. Ich betreibe also keine KI-Entwicklung oder Ähnliches. Die Qualität der grafischen Darstellung ist für mich jedoch inzwischen von untergeordneter Relevanz. Das Spielkonzept und dessen Umsetzung müssen für mich interessant und gut umgesetzt sein. Ich brauche keine realitätsgetreue Beleuchtung, Erzeugung von Schatten, etc. Spielen hat doch auch etwas mit Fantasie und Vorstellungskraft zu tun.

Ich wünsche mir, die enorme Rechenleistung moderner Grafikkarten würde bei Spielen für etwas anderes eingesetzt werden, als realitätsnahe Grafik. "Alle Welt" spricht von KI-Zeugs auf Grafikkarten. Kann man die Rechenleistung dann nicht dafür einsetzen, um bspw. besser agierende NPCs zu schaffen. Es gibt sicher noch andere Dinge, die abseits der Grafik verbessert werden könnten

Macht die Spielwelt realistischer, dynamischer und für mich als Spieler überraschender, nicht ihre Darstellung auf dem Bildschirm. Für letzteres habe ich meine Fantasie.
 
Unti schrieb:
Desweiteren für was brauch ich Monitoring über Adrenalin? Es ist nicht umfänglich.
Hotspot, Auslastung, Verbrauch, VRAM? Was monitored man denn sonst noch?
Bei Nvidia ist seit Jahrzehnten der Bug nicht gefixt, dass beim Trigger des Maus Ereignis (Info) der falsche Text eingeblendet wird, wenn man zu schnell wechselt.
Grundsätzlich bietet mir der AMD Treiber einfach mehr Info und ordentliche Erklärungen. Ist Freesync an? Das GUI beim Start eines Spiels sagt mir dann direkt welche Optimierungen laufen. So bin ich auch schnell drauf gestoßen, dass AMD Fluid Motion Frames inaktiv war. Bei Nvidia wäre mir das nicht aufgefallen.

Unabhängig davon ist AMD Fluid Motion Frames treibergebunden in jedem Spiel nutzbar. Da kann ich mir DLSS3 sparen. Keine Ahnung, warum die Marketingabteilung von AMD das nicht aggressiver bewirbt.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Die echten PC Gamer wollen Nvidia GPUs und sind bereit dafür auch ordentlich Geld auszugeben. Das haben hier im Thread einige Leute bestätigt.
Wer denn zum Beispiel?
ETI1120 schrieb:
Das Unternehmen wurde faul und träge.
Das Unternehmen hat hinsichtlich der Fertigung gepatzt, andere wie TSMC waren in der Lage schneller zu entwickeln. Die Gründe dafür sind komplex, sicher keine Faul- bzw. Trägheit.
AMD hat durch die Fertigung bei TSMC veritable Vorteile, dennoch fehlt Intel nur ca 10 bis 15% an Performance um im Desktopbereich auch hinsichtlich der Effizienz gleichzuziehen.
Im Serverbereich führt Intel nun breit die Low Power Cores ein, was die bringen, mal sehen.
Clonedrone schrieb:
Unabhängig davon ist FSR3 treibergebunden in jedem Spiel nutzbar. Da kann ich mir DLSS3 sparen. Keine Ahnung, warum die Marketingabteilung von AMD das nicht aggressiver bewirbt.
Weil das Feature so schlecht funktioniert, dass es nur ein "Alibi" Ding ist.
Genauso wie Radeon Boost.
 
  • Gefällt mir
Reaktionen: incurable
Clonedrone schrieb:
Unabhängig davon ist FSR3 treibergebunden in jedem Spiel nutzbar
Du meinst sicherlich AMD Fluid Motion Frames und nicht FSR3.
 
  • Gefällt mir
Reaktionen: incurable
H6-Mobs schrieb:
Du meinst sicherlich AMD Fluid Motion Frames und nicht FSR
So ist es
Ergänzung ()

Quidproquo77 schrieb:
Weil das Feature so schlecht funktioniert, dass es nur ein "Alibi" Ding ist.
Bei > 200fps statt 100 nativ kann davon kaum die Rede sein.
 
  • Gefällt mir
Reaktionen: incurable
Es tun ja alle so, als wären AMD Karten giftig, obwohl das giftgrüne Nvidia eher Furcht verbreitet.

Radeons mögen im professionellen Bereich weniger performant sein, aber die Rasterperformance beim Daddeln ist echt super für im Vergleich zu Nvidia recht moderates Geld.

Da DXR im Moment bedeutet, für ein "Work-in-Progress-Feature" knapp 1000€ extra auf den Tisch zu legen, ist Team Rot für mich aktuell alzernativlos, für mich als Gamer!
Und ich bin mir sicher, dass ich nicht der einzige bin, der primär daddelt am Rechner.

Wer es bei Nvidia unverschämterweise wagt keine 2000€ auf den Tisch zu legen, bekommt Speicherkrüppel und verkrüppelte AD104 Chips auf "4070er Karten". AD104 ist knapp die Hälfte des möglichen, was AD102 bietet... ach nein, der High-End- Chip ist ja ebenso beschnitten.....

Fucking ernst Nvidia?!?!?
Manch einer hier im Forum mag sich gerne einen kostengünstigen Verschnitt lustlos hinwerfen lassen, da ja " die Leistung stimme" und dafür einen ganzen Monatslohn gerne an Nvidia überweise.

Die Botschaft, die an Ngreedia gesendet wird ist offenbar: "Egal was, wirf es uns in den Trog!" Wir hinterfragen und meckern und bezahlen dennoch jeden Preis."

Für unter 1000€ kriegste von AMD ihren Premiumchip mit viel Herz und Hingabe. Dazu satten VRAM.
Für 2000€ darfste vom Vollausbau des AD102 träumen... wirst ihn aber nicht erhalten!!!!!!
 
  • Gefällt mir
Reaktionen: Icke-ffm, Snoop7676 und jonderson
Clonedrone schrieb:
Bei > 200fps statt 100 nativ kann davon kaum die Rede sein.
Es zerreißt dir aber das Bild bzw. UI Elemente, weil der Treiber nicht zwischen UI und Ingame unterscheiden kann. Richtig implementiertes FSR3 oder DLSS FG schon.
 
Flaschensammler schrieb:
Für unter 1000€ kriegste von AMD ihren Premiumchip mit viel Herz und Hingabe. Dazu satten VRAM
Und für 80 Euro mehr bekommst Du das Pendant von Nvidia. Mehr DXR Leistung und gleicher Raster Leistung.
DLSS lass ich mal raus. Was denkst Du, für was sich die meisten entscheiden bei einer 1000 Euro Karte?
 
  • Gefällt mir
Reaktionen: incurable
Es wundert mich, dass die Grafikkartenpreise in den letzten drei Monaten gefühlt gleich geblieben sind. Zum Beispiel verharrt die RX 7800 XT hartnäckig oberhalb der 500€-Marke. Ich frage mich, ob allein der Handel dafür verantwortlich ist. Seit Corona sind Grafikkarten im Allgemeinen zu einen wahrhaftigen Luxusgut geworden. Und eine Änderung ist nicht in Sicht. Dieser Zustand nervt mich tierisch.

Das Problem sind die unvernünftigen Konsumenten - und davon gibt es leider viel zu viele. Sie sind aber auch die Lösung: boykottiert einfach diese hohen GPU-Preise und hört auf so viel Geld für eine Gaming-Grafikkarte auf den Tisch zu legen. Spielt mal mit niedrigeren Grafiksettings oder setzt ein 60-FPS-Lock. Der Markt regelt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grimey, Flaschensammler und jonderson
Quidproquo77 schrieb:
.
Im Serverbereich führt Intel nun breit die Low Power Cores ein, was die bringen, mal sehen.

Welche Low Power Kerne meinst du? Die E-Cores? Die arbeiten nicht relevant Energie-effizienzer als die P-Cores.
 
MaverickM schrieb:
MaverickM schrieb:
Man bedenke zudem, dass vor einigen Generationen (Vor RDNA) AMD noch im GPU Computing der nVidia Konkurrenz voraus war... Und es hat trotzdem keinen interessiert, außer den paar Leuten, die es halt brauchten. Es hält sich auch immer noch die Mär, AMD Treiber wären schlecht oder würden Probleme verursachen... Wenn ich da von meinen eigenen Erfahrungen mit nVidia ausgehe und deren Changelogs so anschaue, kann da wohl auch kaum die Rede von sein. :rolleyes:

Das Problem ist die Denkweise der Nutzer. Und das aggressive Marketing nVidias, inklusive fragwürdiger Geschäftspraktiken.
Ergänzung ()
hm das Problem an der ganzen Sache ist das ab und zu AMD wirklich noch massive Probleme hat. Da drauf haben Kunden keine Lust und diese frikeln und so erst recht nicht. Man liest von hier abstürzen oder da klemmt was usw.
Und das bestätigt einige noch und dann greifen sie Automatisch zu nvidia. Da gab es zwar auch mal Probleme aber die wurden um einiges schneller behoben.
Klar hat auch nvidia Probleme wie aktuelle Treiber mit alten bis sehr alten games. So bis 20 Jahre und älter als Beispiel.
Da bleibt halt eben nur die Wahl mit einem älteren Treiber übrig zu nehmen.
Ergänzung ()

Cr4y schrieb:
Welche Low Power Kerne meinst du? Die E-Cores? Die arbeiten nicht relevant Energie-effizienzer als die P-Cores.
dann heißt es halt zu einem ryzen 5 8500g zu greifen. Da sind die ep Kerne oder wie man sie so nennt wirklich gut und effizient. Davon kann wohl Intel nur träumen was AMD so geschafft hat.
 
Cr4y schrieb:
Welche Low Power Kerne meinst du
Intel-Core-Ultra-pcgh.png

Ich denke, er meint die LPE-cores
 
Zurück
Oben