News AMD: Mögliche Antwort auf Nvidias DLSS via DirectML

Casillas schrieb:
das Problem bei dir ist: Du argumentierst, dann wird von jemanden dagegen argumentiert.. Und dann kommts.
Du brichst deine ursprüngliche Aussage auf in die kleinsten "Fetzen", damit du in deinem Kosmus Recht behällst.

Ich gehe einfach davon aus dass die Leute die hier mitlesen und mitschreiben sich auch die Diskussionen merken und nicht immer wieder bei Adam und Eva anfangen muss.
Der Kritikpunkt Effizenz betrifft seit Vega rausgekommen ist nur noch Vega. Die untergeordneten Karten haben dieses Problem zwar auch, aber weit weniger schlimm.

Und dass ein Kommentator einerseits bei Adaptive Sync zwischen Monitorhersteller, Vesa Standard und FreeSync unterscheiden kann, bei G-Sync aber nichtmal zwischen Hardware und Software machts nicht einfacher.
 
Zuletzt bearbeitet:
Dural schrieb:
Cuda ist klar mächtiger und weiter verbreitet.
PhysX ist heute die meist verwendete physik bibliotek, auch auf konsolen.
G-Sync ist technisch überlegen, zudem AMD an Freesync nichts erfunden hat, die technik war vorhanden.

Der einziger grund wie so AMD immer nur kopiert und nichts "erfindet" liegt wohl daran das sie nicht die mittel dazu haben was eigenes auf die beine zustellen. Die nehmen das was sie am biligsten kriegen.

Bei AMD bekommt man halt nur FPS, derzeit nicht mal viele. NV investiert richtig viel geld, das muss auch wieder reinkommen.

So viel zu deiner theorie.
 
Unnu schrieb:
Und selbstverständlich ist 100% RT das Ziel. Warum denn nicht?
Weil man wohl immer zugunsten der Performance, die immer endlich ist, Optimierung betreiben wird. In vielen Fällen ist Rasterizing fixer, und auch nicht wirkich schlechter. Das mögen am Ende nur noch 2% sein die dafür draufgehen, denke aber nicht dass das so schnell der Fall sein wird oder dass man je 100% RT hier sehne wird.
 
  • Gefällt mir
Reaktionen: Mcr-King und TheUngrateful
DocWindows schrieb:
Ich gehe einfach davon aus dass die Leute die hier mitlesen und mitschreiben sich auch die Diskussionen merken und nicht immer wieder bei Adam und Eva anfangen muss.
Der Kritikpunkt Effizenz betrifft seit Vega rausgekommen ist nur noch Vega. Die untergeordneten Karten haben dieses Problem zwar auch, aber weit weniger schlimm.

Und dass ein Kommentator einerseits bei Adaptive Sync zwischen Monitorhersteller, Vesa Standard und FreeSync unterscheiden kann, bei G-Sync aber nichtmal zwischen Hardware und Software machts nicht einfacher.

Du verstehst es nicht. Du relativierst, bzw. kanibalisierst deine eigenen Aussagen.

Du schreibst vorne, dass G-Sync "einfach funktioniert". Dafür bedarf es fehlerfreier Funktion in Software und Hardware.
Dann wurde dargelegt, dass auch G-Sync nicht einfach funktioniert.

dann schreibst du:

DocWindows schrieb:
Was haben Treiberprobleme mit der Definition der Anforderungen zu tun? Softwareprobleme gibts immer mal wieder. AMD wurschtelt auch ständig an ihrem FreeSync rum und trotzdem gibts immer mal wieder Probleme.

Es soll sogar Hardwaredefekte geben die man durch einfaches Umtauschen eines Geräts beheben kann. Bei dir ist aber immer alles gleich ein Prinzipproblem.



Auch das hat nichts mit der Definition der Anforderungen zu tun. Warum lenkst du immer von konkreten Aussagen ab? Und wenn das nicht möglich ist kommste mit Themen von vor 10 Jahren oder noch früher. Und vor allem in Themen die gar nichts damit zu tun haben?
Es wurde nach Vorteilen von G-Sync gefragt und die habe ich genannt. Wozu musst du jetzt wieder derailen? Ich wette wenn ich noch 2x antworte sind wir wieder bei Intel und wie böse die AMD benachteiligt haben. Ist immer das Gleiche. Darum darfste dich jetzt gerne weiter mir dir selber unterhalten.

Du zeigst in dem Moment auf AMD? Warum? Es geht um G-Sync. Gleichzeitig fühlst du dich ja fast schon persönlich angegriffen und fängst fast schon an zu beleidigen.

"Es wurde nach Vorteilen von G-Sync gefragt und die habe ich genannt" .. "G-Sync funktioniert einfach" <- deine Worte.
Scheinbar gibt bei G-Sync ab und an Probleme und du tickst aus.


Was machst du wenn jetzt ein neuer Kommentar kommt, in dem dargelegt wird, wie effizient man Vega betreiben kann (ich hab gehört das soll möglich sein). Schreibst du denn auch: "Um diese Karten ging es doch gar nicht"?

Du beschuldigst sogar andere mit folgendem Satz:
DocWindows schrieb:
Warum lenkst du immer von konkreten Aussagen ab?
 
  • Gefällt mir
Reaktionen: Benji18, Mcr-King und Volkimann
TheUngrateful schrieb:
Es ist erstaunlich dass Stromsparen das Totschlag Argument überhaupt geworden ist.
Ist es das?

Oder geht es nicht eher darum, effiziente Hardware zu verbauen, damit die Kühlung am Ende nicht so laut/aufwendig wird?
Bzw. haben viele auch kein sonderlich gutes Gefühl dabei, wenn ihre Grafikkarte oder CPU ständig bei 90° laufen.
 
USB-Kabeljau schrieb:
Ist es das?

Oder geht es nicht eher darum, effiziente Hardware zu verbauen, damit die Kühlung am Ende nicht so laut/aufwendig wird?
Bzw. haben viele auch kein sonderlich gutes Gefühl dabei, wenn ihre Grafikkarte oder CPU ständig bei 90° laufen.

Kommt am Ende auf das gleiche hinaus.
Sieh Dir meine angegebenen Werte an. Denkst Du meine 480 kommt bei Max 95Watt ins schwitzen und wird hörbar? Der PC steht neben mir auf Kopfhöhe in einem nicht gedämmten Gehäuse, da ist nichts zu hören. Erst bei Furmark nehme ich ein leises surren wahr. Dabei ist es nur die Nitro+ welche bei der 480 einen der schlechteren Kühler im Vergleich zur Konkurrenz hat.
Temps liegen meist zwischen 60-65 Grad bei ~900RPM mit nie erneuerter WLP.

Geb ich der 480 allerdings die Sporen (1,15V, 1400MHz) gönnt die sich 100 Watt mehr, sprich 170-190 Watt, unter Vollast für ~7% mehr Leistung.
 
JMP $FCE2 schrieb:
Ich meine, die CPU-Emulation wäre von Anfang an dabei gewesen, nur eben deutlich langsamer als die PhysX-Karten. Erst die auf dem Grafikchip laufende CUDA-Version hat die Hardware dann überflüssig gemacht.

Für mich waren die PhysX-Karten von Anfang an uninteressant. Zu teuer und zu wenig Vorteile. Gameplayrelevante Physikspäße wie bei Half-Life 2, die die Karten voraussetzen, waren mangels Verbreitung nicht zu erwarten.

Die CPU_emulation war deswegen so langsam, weil Nvidia nach dem Aufkauf den alten Kram so belassen hat wie er ist, der konnte somit
die SSE der modernen CPUs nicht nutzen. Für ihre Karten gab es ja Cuda, also konnte es ihnen ja egal sein. Kommt ja nicht von ungefähr daß Physx erst letztes Jahr relativ vollständig als open source veröffentlicht wurde - es gibt ja auch längst akzeptable Konkurrenz.
 
  • Gefällt mir
Reaktionen: Mcr-King
TheUngrateful schrieb:
Kommt am Ende auf das gleiche hinaus.
Sieh Dir meine angegebenen Werte an

Benchmarks auf Seiten wie Computerbase finden nun aber nicht mit 74 FPS cap statt und darüber wird dann auch nicht im Forum diskutiert. Es gibt immer einen Sweetspot bei dem Verbrauch und Leistung in einem optimalen Verhältnis liegen. Darüber hinaus wirds sehr schnell sehr nachteilig für dieses Verhältnis. Schreibst du ja selber hier

TheUngrateful schrieb:
Geb ich der 480 allerdings die Sporen (1,15V, 1400MHz) gönnt die sich 100 Watt mehr, sprich 170-190 Watt, unter Vollast für ~7% mehr Leistung.

Und das ist dann eben der Knackpunkt. Denn wenn man einer Konkurrenzkarte "die Sporen" gibt, so dass sie bei 170 bis 190 Watt liegt ist man von der Leistung her ungefähr bei einer GTX 1070.

Natürlich ist die 1070 teuerer und natürlich braucht nicht jeder die entsprechende Leistung. Das sind dann aber wieder individuelle Abwägungen. Somit kann eine eigentlich ineffiziente Grafikkarte für manche User und für bestimmte Anwendungsfälle eine sinnvolle Entscheidung sein.
 
Davon kannst du nur träumen. Auch wenn du der 1060 volle Sporen gibst, kommst du an keine 1070. Zwischen den beiden GPU's klaffte schon von Anfang an eine große Lücke.
 
  • Gefällt mir
Reaktionen: katamaran3060 und Mcr-King
Postman schrieb:
Man hat zwar mit Freesync recht behalten, aber letztendlich brachte dass AMD keinerlei Gewinn oder Vorteil, sondern nur einen Prestigesieg, welcher aber keinen Aktionär beendruckt und schon gar kein Geld in die Kasse spült.
Als Konsument sollte uns Prestige egal sein, das Ergebnis ist entscheidend -> FreeSync Monitor-Besitzer können zwischen Nvidia/AMD wählen und niemand ist wegen Nvidia-Präferenz bei den GPUs auf teures Gsync angewiesen wenn er lieber einen FreeSync-Monitor will.

Postman schrieb:
Glücklicherweise stellt sich AMD zumindest mit ihren brauchbaren CPUs breit auf, so dass man dort gut mithalten kann. Ich prophezeie aber auch die nächsten 18 Monate nichts Bahnbrechendes bei den Grafikkarten womit man NVIDIA überflügeln könnte, so dass man nur erneut am Preis schrauben kann, womit man seit Jahren nur ein Low Budget Clientel binden kann.
Sehe Ich auch so, alleine vom Preisgefüge her würde ich mir aber wünschen dass die Einsätzung falsch ist.

Postman schrieb:
Ich bin aber weiterhin AMD sehr dankbar, dass man INTEL mit den lange zurückgehaltenen Kernen in den Hintern getreten hat und Freesync etablieren konnte. Nun wird es aber Zeit bei den Grafikkarten mal wieder etwas Bahnbrechendes zu bringen.

Meiner Meinung nach wurden eben der Großteil der Finanzmittel in den CPU Sektor gepumpt. In 2 Sparten gleichzeitig vorne dabei zu sein können sie sich eben nicht leisten.
Zu Bulldozer Zeiten war der GPU Sektor der Einnahmen bringer, jetzt ist es umgekehrt.

Postman schrieb:
Die letzte Karte die wirklich besser als von NVIDIA gewesen ist, war die 1900 XTX aus dem Jahr 2006, die bei mir damals aber sehr schnell kurz nach Garantieablauf aufgrund der hohen Taktung und der stetigen Hitze (ein häufiges AMD Problem auch der aktuellen Generation) kaputt ging.

Persönlich finde ich die 5870 auch als sehr gute Karte, die Radeon HD 2900 war ein griff ins Klo.
Zu Zeiten von 9700 - 1900 XTX war ATI die bessere Wahl.
 
DocWindows schrieb:
Benchmarks auf Seiten wie Computerbase finden nun aber nicht mit 74 FPS cap statt und darüber wird dann auch nicht im Forum diskutiert. Es gibt immer einen Sweetspot bei dem Verbrauch und Leistung in einem optimalen Verhältnis liegen. Darüber hinaus wirds sehr schnell sehr nachteilig für dieses Verhältnis. Schreibst du ja selber hier



Und das ist dann eben der Knackpunkt. Denn wenn man einer Konkurrenzkarte "die Sporen" gibt, so dass sie bei 170 bis 190 Watt liegt ist man von der Leistung her ungefähr bei einer GTX 1070.

Natürlich ist die 1070 teuerer und natürlich braucht nicht jeder die entsprechende Leistung. Das sind dann aber wieder individuelle Abwägungen. Somit kann eine eigentlich ineffiziente Grafikkarte für manche User und für bestimmte Anwendungsfälle eine sinnvolle Entscheidung sein.

Deswegen sag ich ja, da fehlt Verständnis bzw Aufklärung.

Jeder der zu einer 1060 greift, weil diese so sparsam ist und diese @stock betreibt, weiß es entweder nicht besser, hat "Angst" vorm OC/UV oder ist ein Heuchler. In zwei Fällen davon hilft Aufklärung. Man empfiehlt ja auch keinen 9900k in Kombination mit einer 1060 weil es die "beste" Gaming CPU ist.

Mit wenigen Klicks sind eine 1060 und 580 auf weit unter 100Watt unter Last zu bekommen ohne dabei auf relevante Leistung zu verzichten. Die 1060 ist noch ein Stück effizienter, dafür kommt die 580 mit Freesync und 8GB.
 
Die Idee hinter DLSS ist ja einen Teil der Grafikberechnung vom Computer des Anwenders in das Rechenzentrum des Spielentwicklers zu verschieben. Sprich der Spielentwickler kauft einen Server der mit Nvidia GPUs bestückt ist und trainiert darauf das neuronale Netzwerk, welches später auf dem Computer des Spielers auf den dafür optimierten Tensor Cores ausgeführt wird.

Für Nvidia bietet dies meiner Meinung nach folgende Vorteile:
- Sie haben einen neuen Markt für Ihre Karten im Profibereich und zementieren so den Vorsprung den sie in Deep Learning bereits haben.
- Wenn Nvidia-Hardware zur Verfügung steht, kann diese auch für das trainieren von anderen Neuronalen Netzwerken für andere Spielfunktionen verwendet werden (z.B. AI, Matchmaking etc.). Dies verstärkt den Lock-In auf Entwicklerseite da Nvidia momentan besseres Tooling und Dokumentationen als AMD bietet.

Käufer von Nvidia-Karten erhalten mehr für ihr Geld. Das Ausführen von neuronalen Netzwerken auf dafür spezialisierten Recheneinheiten ist effizienter als die Ausführung auf normalen CPU oder GPU-Kernen.

Durch DirectML gibt es jetzt eine API für die Ausführung von neuronalen die Herstellerunabhängig funktioniert. Was ich auch als Vorteil für Nvidia sehe. Spiele die neuronale Netzwerke verwenden, werden durch die Tensor Cores bessere Performance auf Computer mit Nvidia Grafikkarten bieten.

Nvidia wettet also auf Deep Learning und ist AMD in diesem bereich bereits weit voraus. Meiner Meinung sieht es zwar besser aus für AMD im Grafikkartenbereich, aber ich denke wie gut, hängt stark davon ab, ob Deep Learning wirklich die eierlegende Wollmilchsau ist, wie immer behauptet wird.
 
TroubleMachin schrieb:
Sprich der Spielentwickler kauft einen Server der mit Nvidia GPUs bestückt ist und trainiert darauf das neuronale Netzwerk, welches später auf dem Computer des Spielers auf den dafür optimierten Tensor Cores ausgeführt wird.
Spieleentwickler müssen ihre Spiele nur nach Nvidia schicken und da wird dann kostenlos trainiert. Es muss ja schließlich auch in 64x Supersampling trainiert werden und dafür bracht man schon ne Mörder-Kiste.
Wie du ja schon beschrieben hast, ist das Ganze eine Win-Win-Win Situation für Spieler, Entwickler und Nvidia, Die wären also schön doof, wenn sie für das Trainieren Geld verlangen würden.
 
noxon schrieb:
Spieleentwickler müssen ihre Spiele nur nach Nvidia schicken und da wird dann kostenlos trainiert. Es muss ja schließlich auch in 64x Supersampling trainiert werden und dafür bracht man schon ne Mörder-Kiste.
Wie du ja schon beschrieben hast, ist das Ganze eine Win-Win-Win Situation für Spieler, Entwickler und Nvidia, Die wären also schön doof, wenn sie für das Trainieren Geld verlangen würden.

Ja das stimmt und das war bisher ja schon immer Grund für Nvidias Dominanz. Mit gutem Service für die Entwickler davon überzeugen ihre proprietäre Technologien zu nutzen.

Was ich damit sagen will ist, dass Nvidia Interesse hat Spielentwickler Beschleuniger für Deep Learning zu verkaufen. Eine Technologie die sie meiner Meinung nach mit DLSS schmackhaft machen. Gleichzeitig optimieren sie die Hardware für den Endkunden so, dass Produkte die neuronale Netzwerken darauf schneller laufen. Was dazu führt das ihre Produkte für Entwickler und Endkunde attraktiver werden.

Ich bin mir aber immer noch nicht sicher, ob der Deep Learning Crash oder Boom kommt.
 
cbmik schrieb:
die Radeon HD 2900 war ein griff ins Klo.
Welche aber noch federführend unter ATi entwickelt wurde. Nach dem Kauf von ATi hat ja AMD recht schnell reagiert und die gröbsten Designfehler mit der HD 3870 beseitigt.
Ergänzung ()

TroubleMachin schrieb:
und Endkunde attraktiver werden.
Und teurer. Jeder Kunde bezahlt es ja beim Kauf mit, egal ob er es nutzt oder nicht.
 
TroubleMachin schrieb:
Die Idee hinter DLSS ist ja einen Teil der Grafikberechnung vom Computer des Anwenders in das Rechenzentrum des Spielentwicklers zu verschieben. Sprich der Spielentwickler kauft einen Server der mit Nvidia GPUs bestückt ist und trainiert darauf das neuronale Netzwerk, welches später auf dem Computer des Spielers auf den dafür optimierten Tensor Cores ausgeführt wird.

Für Nvidia bietet dies meiner Meinung nach folgende Vorteile:
- Sie haben einen neuen Markt für Ihre Karten im Profibereich und zementieren so den Vorsprung den sie in Deep Learning bereits haben.
- Wenn Nvidia-Hardware zur Verfügung steht, kann diese auch für das trainieren von anderen Neuronalen Netzwerken für andere Spielfunktionen verwendet werden (z.B. AI, Matchmaking etc.). Dies verstärkt den Lock-In auf Entwicklerseite da Nvidia momentan besseres Tooling und Dokumentationen als AMD bietet.

Käufer von Nvidia-Karten erhalten mehr für ihr Geld. Das Ausführen von neuronalen Netzwerken auf dafür spezialisierten Recheneinheiten ist effizienter als die Ausführung auf normalen CPU oder GPU-Kernen.

Durch DirectML gibt es jetzt eine API für die Ausführung von neuronalen die Herstellerunabhängig funktioniert. Was ich auch als Vorteil für Nvidia sehe. Spiele die neuronale Netzwerke verwenden, werden durch die Tensor Cores bessere Performance auf Computer mit Nvidia Grafikkarten bieten.

Nvidia wettet also auf Deep Learning und ist AMD in diesem bereich bereits weit voraus. Meiner Meinung sieht es zwar besser aus für AMD im Grafikkartenbereich, aber ich denke wie gut, hängt stark davon ab, ob Deep Learning wirklich die eierlegende Wollmilchsau ist, wie immer behauptet wird.

Der Sinn dahinter ist verständlich und das spezialisierte Einheiten besser sind als universelle ist zwar anzunehmen, aber wie viel besser? Das wird sich noch zeigen.

Ist es jetzt auch besser Chip Fläche für spezialisierte Einheiten zu verwenden oder die im Falle von Turing 25% Fläche für universelle Einheiten zu nehmen? Diese könnten ja immer benutzt werden, nicht nur für DLSS.
 
TroubleMachin schrieb:
Ich bin mir aber immer noch nicht sicher, ob der Deep Learning Crash oder Boom kommt.
Definitiiv Boom.
Boomt ja schon längst in allen anderen Bereichen und die Tatsache, dass selbst Handys schon AI-Kerne in ihren Prozessoren haben zeigt ja schon, wo die Reise hingeht.

Spiele sind zudem prädestiniert für solche Aufgaben. Letztendes werden es aber auch nicht nur Spiele sein, die sich diese Funktionalitäten zu nutze machen. Windows 10 setzt ja zum Beispiel auch immer mehr AI-Fumktionalitäten ein und wenn es AI-fähige Grakfikkarten vorfindet, dann wird es mittels DirectML hoffentlich auch hardwarebeschleunigt, genau so wie Grafik heute auch nicht mehr auf der CPU gerendert wird, sondern per DirectX GPU beschleunigt wird.

Ich sehe dort also schon eine riesige Zukunft, genau so wie auch beim RayTracing in Kombination mit dem Rasterizing. Wo wir beim Rasterizing bisher nicht mehr weiterklamen wird uns das RT jetzt neue Möglichkeiten eröffnen, die wir zusätzlich zum Rasterizing einsetzen können.
 
Aldaric87 schrieb:
Auch wenn du der 1060 volle Sporen gibst, kommst du an keine 1070. Zwischen den beiden GPU's klaffte schon von Anfang an eine große Lücke.

Ich meine ja auch nicht die 1060 sondern die 1070. Die verbraucht um die 180-190 Watt wenn man ihr die Sporen gibt. Und deshalb schreibe ich auch weiter dass die 1070 natürlich teuerer ist, aber es ging ja um einen Effizienzvergleich und nicht um einen Preisvergleich.

TheUngrateful schrieb:
Mit wenigen Klicks sind eine 1060 und 580 auf weit unter 100Watt unter Last zu bekommen ohne dabei auf relevante Leistung zu verzichten.

Dann gehört zur Aufklärung aber auch zu erwähnen dass nicht jede Karte jedes Undervolting mitmacht. Es kann mir niemand garantieren dass ich eine Karte so weit unter Herstellerspezifikationen betreiben kann wie Forenuser XY.

Die Sache mit FPS cap könnte man aber durchaus mal für Benchmarks im Auge behalten. Volle Details, FullHd, 60FPS cap und dann die Effizienzwerte ermitteln.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Dann gehört zur Aufklärung aber auch zu erwähnen dass nicht jede Karte jedes Undervolting mitmacht. Es kann mir niemand garantieren dass ich eine Karte so weit unter Herstellerspezifikationen betreiben kann wie Forenuser XY.

Das stimmt. Garantieren kann man in dem Fall für überhaupt nichts. Optimieren lässt es sich trotzdem immer und das sollte man auch.
Ich seh es ja selbst bei meiner 1070. Die schafft bei 1V gerade mal stabil 1900MHz. Trotzdem ist diese Effizienter gegenüber meiner 480. Bei meinem Nutzungsverhalten wäre aber eine 1070 in dem System der 480 Overkill und somit hab ich für mich in beiden Systemen die optimalen Karten gefunden.
 
Krautmaster schrieb:
Weil man wohl immer zugunsten der Performance, die immer endlich ist, Optimierung betreiben wird. In vielen Fällen ist Rasterizing fixer, und auch nicht wirkich schlechter. Das mögen am Ende nur noch 2% sein die dafür draufgehen, denke aber nicht dass das so schnell der Fall sein wird oder dass man je 100% RT hier sehne wird.

Und pling- Wie es der Teufel so will ein proof of concept:

Q2VKPT is the first playable game that is entirely raytraced and efficiently simulates fully dynamic lighting in real-time, with the same modern techniques as used in the movie industry (see Disney's practical guide to path tracing). The recent release of GPUs with raytracing capabilities has opened up entirely new possibilities for the future of game graphics, yet making good use of raytracing is non-trivial.

Quelle:
http://brechpunkt.de/q2vkpt/


Wie ich bereits sagte... Mit RTX sind wie näher am Full scene Raytracing dran, als manche glauben...
Zudem zeigt die Quake- Version keinen "billigen" reverse Raytracer, sondern einen vollwertigen Path- Tracer.

So sah das vor RTX aus, falls sich noch jemand dran erinnern kann:

Vielleicht ist dieser Vergleich nützlich um deutlich die immensen Leistungsunterschiede beider Generationen herauszustellen.

Zugegeben- Das Spiel hat natürlich Assets und eine Geometrie, die zu wünschen übrig lässt (ist halt Quake 2). Es lässt sich aber ansatzweise (Licht/Schatten/Specular etc.) erahnen, wo es hingehen kann/wird.
Ich würde mir wünschen, dass sie den Renderpfad testweise in Doom 3 einbauen. Dann würde dies den Qualitätsunterschied noch einmal eindrücklicher demonstrieren.

Mit entsprechender KI unterstützung lässt sich da sicherlich auch noch mehr machen.
AMD wird sich das, was da gerade passiert nicht entgehen lassen (Lisa su hat das ja bereits bestätigt, dass das auch für AMD in Arbeit ist).

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und Krautmaster
Zurück
Oben