News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

Wichtig ist und bleibt ein Schalter für ON und OFF.
Derjenige dem MAX FPS wichtig sind, der kümmert sich auch einen Dreck um Best Quality.

Vor allem in schnellen Spielen absolut irrelevant.

Das was AMD bisher gezeigt hat ist ernüchternd von der BQ her.
Aber von der Unterstützung her Weltklasse.

Was ist überhaupt mit der Zusammenarbeit mit Microsoft geworden. Es hieß doch FFXSR ist eine Entwicklung zusammen mit Microsoft?!

Sollte es so erscheinen wie aktuell zu sehen, dann wird vielfach der Schalter auf OFF bleiben.

Bei mir sowieso.
Ein natives Bild ist eben durch nichts zu ersetzen. Auch wenn DLSS 2.0 seine Sache gut macht, ändert es eben das Bild. Ein besseres Bild als das Native, hab ich jetzt durch DLSS 2.0 auch noch nicht gesehen.

Aber auch nicht wichtig.
Nativ oder mehr FPS.

Jedem seine eigene Entscheidung.
 
aldaric schrieb:
Das ist schlicht nicht möglich. Nativ wird immer jeder Rekonstruktion überlegen sein.
Digital Foundry hat in NIOH2 dargestellt, HWU hat in Cyberpunk dargestellt und andere Videos in Deathstranding, dass die native Auflösung Limits hat, welche die Rekonstruktion nicht hat.
Ferne Leitungen, ferne Schriftzüge, granularste Details am Horizont bekommt eine Glättungstechnik mehr hin wie die Rekonstruktion.

Es wurden Bild an Bild Vergleiche gezeigt, in denen DLSS 2.0 mehr Details zeigt als das native Bild.
Die Verweigerung, das anzuerkennen ist das wortwörtliche "Augenverschließen". Nur dann kann man es nicht "sehen", Aldaric ;)
Ergänzung ()

https://www.dsogaming.com/screensho...ative-4k-vs-fidelityfx-upscaling-vs-dlss-2-0/

All in all, DLSS 2.0 is slightly better than both Native 4K and FidelityFX Upscaling.

DLSS > 4K nativ hat begonnen. Zumindest dort, wo es in der best practice der Nvidia Empfehlungen gut umgesetzt wird. Es hängt also auch von den devs ab. Vor allem von denen.

Und DLSS 3.0 kommt.
Und AMD wird mit FxSFR einsteigen. Und mit RNDA 3 eine FSR 2.0 nachlegen.

Gut so!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße und foo_1337
.Sentinel. schrieb:
weil die Software in erheblichen Umfang zur Performance beiträgt und da finden sich immer wieder Köpfe, die das scheinbar Unmögliche dann doch möglich machen.
Gerade KI wird in dieser Hinsicht die nächsten Jahre alles wegblasen, was wir uns heute überhaupt vorstellen können. Ich empfehle dazu den Kanal Two Minute Papers auf Youtube. Das zeigt wie innerhalb weniger Jahre KI-gestütztes Rendering Ergebnisse in Sekunden pro Frame auswirft, wo vor 10 Jahren noch Stunden oder gar Tage pro Frame gerechnet werden musste.
Bzw. teilweise wo extrem komplexe Vorgänge sogar erst mittels KI-basiertem Rendering möglich wurden.
Ergänzung ()

Gargamehl schrieb:
Von den Videos her scheint mir das für mich nicht der Fall zu sein.

Was für temporales Upscaling bei der AMD Lösung spricht sind hier:
  • Bei den Ästen sieht man kurz Bewegungsartifakte welche dann rasch verschwinden (alte Subpixel), ähnlich wie es bei DLSS 2.0 vorkommt
  • Bei den ruhigen Beispielen ist kaum ein Qualitätsunterschied wahrzunehmen (die 4k Beispiele). Bei dem Geforce-Beispiel dagegen wo es eine vom Bewegungsvektoren her komplizierte Kamerafahrt gibt sieht man deutliche Unterschiede, insbesondere bei Teilen welche erst kurz in der entsprechenden Grösse im Bild sind.

Grundsätzlich kann man aber aus dem Video nur wenig ableiten, da muss man abwarten
AMD selbst hat bereits bestätigt, dass es sich bei FSR um spatial upscaling und nicht um temporal upscaling handelt.
 
  • Gefällt mir
Reaktionen: foo_1337 und Laphonso
Wer einmal in den Genuss kommen durfte in 4K mit mehr als >60 FPS spielen zu können, der wird darauf auch nur ungern verzichten wollen. Sollte dies wirklich auch mit Pascal funktionieren, würden mich Test der CB's 1080Ti Founders Edition brennend interessieren, ob dies wirklich funktioniert wie AMD geäußert hat.

Native 1440p für die FPS in Kombi mit 4K DLSS für die Optik, wären so ziemlich die Kirsche auf der Sahnetorte für Pascal Besitzer (zumindest für 1080Ti Besitzer).

Well done AMD if it works!
 
  • Gefällt mir
Reaktionen: Laphonso
.Sentinel. schrieb:
Nein, da die NVIDIA Grafikkarten schon immer alle Monitore unterstützt haben.
Aber nicht alle Techniken der Monitore.

.Sentinel. schrieb:
Das kann man doch nicht ernsthaft als Problem darstellen, dass man für sein eigenes Produkt entwickelt.
Gehst Du auch arbeiten und verschenkst am Monatsende Deinen Lohn?

Nein, aber ich arbeite auch weder für Nvidia noch für Apple.
Wie gesagt, nur weil etwas legal ist, heißt es nicht, dass es auch moralisch ok ist.
Ich hätte nichts dagegen, wenn sie nur ihre Grafikkarten verkaufen würden ;)

.Sentinel. schrieb:
Zudem- Wenn man Vorreiter in einer Technik ist, ist diese zwangsläufig proprietär.
Beleg?
FreeSync ist nicht properitär, FSR wird nicht properitär sein, Mantle war nicht properitär.
X86_64 war nicht properitär.

.Sentinel. schrieb:
Würden Sie den Mitbewerb unlauter einschränken, hätten sie sofort Klagen am Hals.
Nicht, wenn sie im legalen bleiben. Siehe z.B. Cum-Ex ;)

.Sentinel. schrieb:
jonderson schrieb:
  • PhysX hat zum Beispiel Gameplay-Physik auf Jahre hin nachhaltig geschädigt.
    Es konnte nur für Effekte eingesetzt werden, weil sonst Entwickler alle nicht Nvidia Käufer hätten ausschließen müssen.
Beleg?
Wofür willst du einen Beleg?

.Sentinel. schrieb:
jonderson schrieb:
  • Nvidia hat vermutlich dafür gesorgt, dass bei Assassin's Creed der DX 10.1 Patch zurückgezogen wurde.
    Laut Ubisoft gab es wohl Probleme. Das größte Problem war vermutlich, das AMD Karten einen Boost in einem vom Nvidia gesponserten Spiel bekommen haben....
Beleg?
https://www.pcgameshardware.de/Assa...-Kommentar-zur-DirectX-101-Diskussion-643169/
https://games.ch/2906-assassins-creed/news/assassins-creed-riesen-rger-um-directx-101-maM/
https://techreport.com/news/14707/ubisoft-comments-on-assassins-creed-dx10-1-controversy-updated/
https://www.gameswelt.de/assassins-creed/news/directx-10-1-wird-nicht-wieder-integriert-90395
https://www.tweakpc.de/news/13799/assassins-creed-directx-10-1-wird-abgeschaltet/
https://www.computerbase.de/2008-04/d3d-10.1-bei-assassins-creed-wird-weggepatcht/
https://www.computerbase.de/2008-05/assassins-creed-bekommt-kein-d3d-10.1-mehr/

.Sentinel. schrieb:
jonderson schrieb:
  • Ähnliches gab es dann noch mit GameWorks, wo AMD Karten "ausversehen" auf einen Pfad geschickt wurden, wo sie ohne Sinn rechnen durften...
Beleg?
https://www.forbes.com/sites/jasone...e-entire-pc-gaming-ecosystem/?sh=1f6c2da93ca2
https://www.pcr-online.biz/2015/07/...y-damages-the-performance-on-nvidia-hardware/
https://www.pcgameshardware.de/Nvid...a-gameworks-bremst-angeblich-amd-aus-1103169/
https://www.gamestar.de/artikel/amd...eistung-von-geforce-grafikkarten,3234358.html
https://www.tweakpc.de/news/30067/bremst-nvidias-gameworks-bibliothek-gezielt-amd-grafikkarten-aus/
https://www.pcgameshardware.de/Nvid...98/Specials/Nvidia-Gameworks-Special-1126441/

Alle Quellen sind schnell gegoogelt. Es sollte dir genug informationen liefern, dass du dich selbst bei deinen favorisierten Quellen informieren kannst. Natürlich konnte man Nvidia nie etwas direkt nachweisen, so dumm wie bei der Holz-Thermi sind sie in der Regel nicht, verständlicherweise...

.Sentinel. schrieb:
Damit würdest Du den Hardwareherstellern den Großteil ihres Gestaltungsspielraumes inkl. Optimierungspotenziales nehmen.
Es hat lange Jahre genau so funktioniert...
Es war der vorne, der die beste Leistung gebracht hat.
Dadurch hatte man einen heilen Markt und der Nutzer konnte nach Leistung und nicht nach Krähenfüßen entscheiden...
 
Zuletzt bearbeitet: (Tippfehler)
  • Gefällt mir
Reaktionen: muh0rsen, Colindo und Inxession
aldaric schrieb:
Eher Danke an Sony und Microsoft, die das als Anforderung an den Semi-Custom Chip von AMD gestellt haben. AMD fertigt die Hardware nach Wunsch der Konsolenhersteller, nicht umgekehrt.
guter witz, was amd nicht in petto hat, können sie auch nicht einbauen, egal was ms und sony verlangen.
 
jonderson schrieb:
FreeSync ist nicht properitär, FSR wird nicht properitär sein, Mantle war nicht properitär.
X86_64 war nicht properitär.

FreeSync war ja auch nicht Vorreiter bei der Technik, sondern GSync.
FSR ist auch nicht Vorreiter, sondern folgt auf DLSS
Und eine Grafik-API proprietär zu machen wäre absoluter Schwachsinn, weil wohl kaum ein einziges Spiel diese Grafikschnittstelle jemals genutzt hätte, wenn das Spiel dann damit 70% aller Kunden ausgeschlossen hätte...
Und seitens AMD ist es ja auch Vorteil genug, dass Mantle, bzw. jetzt Vulkan auf AMD-Karten etwas besser läuft, da darauf zugeschnitten.
Ach so, lies Dich mal über GLIDE ein, was mit Firmen passiert, welche auf proprietäre Grafikschnittstellen setzen...
Und das war zu einer Zeit, wo man meist noch frei wählen konnte, welche API genutzt werden sollte, weil einfach für mehrere gleichzeitig programmiert wurde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337, Laphonso und .Sentinel.
jonderson schrieb:
Natürlich konnte man Nvidia nie etwas direkt nachweisen, so dumm wie bei der Holz-Thermi sind sie in der Regel nicht, verständlicherweise...
Also sind das, wie es alle Deine Quellen selbst belegen, wohl eher reine Vermutungen und Mutmaßungen?
 
MrChronos schrieb:
FreeSync war ja auch nicht Vorreiter bei der Technik, sondern GSync.

Nein. Adaptive Sync ist der Vorreiter.
Ergänzung ()

.Sentinel. schrieb:
Also sind das, wie es alle Deine Quellen selbst belegen, wohl eher reine Vermutungen und Mutmaßungen?
Ich glaub man muss einige Methoden nicht mehr in Zweifel ziehen. Sie sind passiert und fertig. Und nicht alles dabei war "Zufall".
 
  • Gefällt mir
Reaktionen: Legalev, muh0rsen, jonderson und 2 andere
Was ich toll finde ist dass man dieses Feature auch mit älteren Grafikkarten nutzen kann, die haben es nämlich vergleichsweise am nötigsten. Vor allem bei der aktuellen Marktlage.
 
  • Gefällt mir
Reaktionen: Kuestennebel79, muh0rsen, jonderson und eine weitere Person
Benji18 schrieb:
Erstens war Freesync (Gsync) bereits vor dem Nvidia/AMD Release im Vesa Standard enthalten ....
Nein, war es eben nicht, es war "versteckt" im eDP Standard und der wurde nicht mal genutzt.

Benji18 schrieb:
Bei DLSS hätte Nvidia auch andere wege gehen können haben Sie aber nicht --> siehe Melkkultur dieser Firma
AMD hat Mantle zuerst auch nicht offen gestaltet, es existiert keine böse und gute Firma.
 
jonderson schrieb:
X86_64 war nicht properitär.
Öhm. Schon irgendwo. X86_64 fasst ja AMD64 und Intel64 (und andere) zusammen, wurde von AMD entwickelt. Jeder, der diese Technologie nutzen will, muss sie sich von AMD lizensieren lassen, so auch Intel. AMD hält die Patente. Ein ähnliches Abkommen wie bei der X86-Technologie selbst ja auch, nur andersrum: Bei x86 lizensiert AMD von Intel, bei x86_64 lizensiert Intel von AMD.
 
aldaric schrieb:
Ich glaub man muss einige Methoden nicht mehr in Zweifel ziehen. Sie sind passiert und fertig. Und nicht alles dabei war "Zufall".
Ja- Siehe mein Kommentar zum Geforce Partner Programm.

Die technischen Dinge, die aber immernoch oftmals als Argumentation herhalten müssen.

z.B.
-TW3 hairwoks
-Tesselation bei Crysis
-Ausbremsen von AMD Hardware in Sachen Gameworks
-PhysX
-NVIDIA macht alles proprietär
usw.

...sind schon so oft technisch und nachweislich als Urban Myth herausgestellt worden und immernoch schwebt in den Köpfen (die das wohl wollen) NVIDIA als böser Bube, der dadurch den Wettbewerb behindert hätte und nebst Intel das Böse im Firmenmantel darstellt.

Was nicht über deren Methoden in Sachen Beeinflussung von Testergebnissen, Zwang bei Kooperationen und Partnerschaften, also die politisch wirklich schwerwiegenden und benachteiligenden Dinge hinwegtäuschen soll.... nebst dem teilweise echt peinlich überheblichen Marketing.

Dennoch- Das sind Teile (meist die der öffentlich exponierten) einer Firma, die da über die Stränge schlagen. Verfehlung einzelner Personen/Abteilungen, für die dann eine gesamte Firma als das Böse in Reinform herhalten muss.

"Das Böse" und "den Kurs" gibt es bei solch großen Unternehmungen nicht, da dort durch Fluktuation auch ständig eine Erneuerung stattfindet.

Bestes Beispiel die Telekom, mit welchen ich Jahrelang sehr viel zu tun hatte. Je nachdem, wer da grad am Ruder der einzelnen Abteilungen sitzt, gabs mal eine Service- Offensive oder eben auch das Gegenteil davon (stundenlange Warteschleifen, träge Bearbeitung).

Phasenweise waren sie kulant (fehlerhaft konfigurierter dial- in router hat 2000€ Kosten verursacht), manchmal nicht (zwei Jahre später musste ein Kunde das zahlen).

Somit halte ich von diesen absoluten Bewertungen nach moralischen Maßstäben in Sachen Konzernen überhaupt nichts. Das ist einfach Weltfremd.

Denn demnach dürftest Du bei 99% der existierenden Firmen nicht einkaufen, weil da schonmal das eine oder andere nicht ganz sauber gelaufen ist.

Kann eine Technik "böse" sein?
ist also DLSS böse, weil nicht open source und FSR automatisch gut? Bzw. sind die Firmen dahinter automatisch böse oder gut? Diese Denke erschließt sich mir eben nicht...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Zwiebelsoße schrieb:
AMD hat Mantle zuerst auch nicht offen gestaltet
Sie haben aber auch von Anfang an gesagt dass sie den Standard öffnen wollen. Die Variante die sie schlussendlich gewählt haben war dann auch das beste was sie draus machen konnten.
 
Chismon schrieb:
Natuerlich kann nVidia bei DLSS Sponsoring im Vertrag mit Entwicklern festlegen, keine konkurierenden Standards wie FSR temporaer oder permanent zu implementieren (was auch die eigene Klientel mit aelteren GeForce Karten bewusst benachteiligen wuerde), aber wenn das heraus kommt, dass man der Spielerschaft mit Geld seine eigene Technologie aufzwingen wird, duerfte das auf wenig Gegenliebe der Spieler stossen und wie Entwickler darauf reagieren wuerden, ist auch die Frage
Klar könnten die das, nur wozu?
Und ob sich Publisher/Entwickler darauf einlassen würden:
-> Wenn ein Entwickler FSR nutzt, dann hat der die Performance auch gleich auf den Konsolen mit dazu inklusive nVidia GPUs. Bei DLSS gibt es - NUR (!) - nVidia GPUs.
Als Sahnehäubchen ist FSR OS + wesentlich leichter zu implementieren (lt. Aussagen der Entwickler).
Da fällt die Wahl nicht schwer als Entwickler.
... und ob nVidia da dann wirklich derart viel Kohle reinstecken wollen wird ... ? Halte ich für unwahrscheinlich.

Da fallen mir so andere proprietäre Sachen ein wie PhysX oder auch G-Synch.
Tolle Tech, meist führend, mittlerweile nicht mehr von Bedeutung. ... ok, im Gaming.
Und ich habe schon vor langer Zeit vorhergesagt, dass auch DLSS kein Standard werden wird. So wie's jetzt aussieht, wird es das auch nicht.

Die Zeiten in denen einzelne Unternehmen Standards durchdrücken konnten sind vorbei.
 
Zuletzt bearbeitet: (Edith weil ungenau)
B3nutzer schrieb:
Hätte AMD mit der RT Performance gleichgezogen und eine gleichwertige DLSS Alternative am Start gehabt, würde jetzt eine AMD Karte im Rechner stecken, wegen dem VRAM Vorteil. Warum auch nicht?!
Da das aber nicht der Fall war, musste ich eben abwägen was in Zukunft wertvoller sein könnte und worauf man notfalls verzichten kann.

Du verzichtest also in Zukunft auf am höchsten aufgelöste Texturen, damit die Spiegelungen im Wasser höher aufgelöst sind im Vergleich zur Konkurrenz??
OK... o_O
 
  • Gefällt mir
Reaktionen: Benji21
Unnu schrieb:
Als Sahnehäubchen ist FSR (...) wesentlich leichter zu implementieren.
Ist das so? Pics or it didn't happen :)
Unnu schrieb:
Bei DLSS gibt es - NUR (!) - nVidia GPUs.
Bei KI Upscaling/Super Sampling ist die Hauptaudienz ohnehin der Raytracing Gamer. Und wenn man sich da die Marktlage anschaut (z.B. Steam Survey) ist trotz aller Unkenrufe was die Lieferbarkeit von Ampere betrifft, allein schon Ampere weit vor RDNA2. Plus das Turing RTX Lineup.
Unnu schrieb:
Und ich habe schon vor langer Zeit vorhergesagt, dass auch DLSS kein Standard werden wird. So wie's jetzt aussieht, wird es das auch nicht.
Man muss kein Wahrsager sein um das "vorherzusagen". Eine Technologie, die nur auf einen Hersteller begrenzt ist, kann schlecht ein Standard sein. Aber: In der letzen Zeit ist viel passiert und die UE4/UE5 Integration ist schon die halbe Miete. Und das wird sicher nicht die letzte Integration in eine Engine sein ;)
 
  • Gefällt mir
Reaktionen: Unnu
foo_1337 schrieb:
Ist das so? Pics or it didn't happen :)
OKay, ich übe mich in Edith: Es "SOLL" wesentlich leichter zu implementieren sein lt. Entwicklern.

As for the rest:
Was hat die momentane Marktlage und die Einstufung der DLSS Leistungsfähigkeit von RTX ggü. RDNAx mit der getätigten Aussage zu tun?
Nö, muss man nicht, allerdings erinnere ich mich auhc an Diskussionen hier im Forum, als mal wieder die Totenglocken für AMD + Konsolen geläutet wurden und DLSS als DAS Überfeature gefeiert wurde.
Naja, vergossene Milch.
... und wenn ich das richtig sehe, dann sind sowohl die Ansätze als auch die erzielten Ergebnisse gewollt völlig unterschiedlich. AMD will gar nicht, dass 4K RT noch besser aussieht + performanter Läuft als eh schon.
Oder interpretiere ich deren Ansatz falsch?
Die (AMD) wollen einen allgemeinen Performance Boost jeglicher HW.
DLSS hingegen macht das Maximum in RT schneller.
Oder?
Das ist zumindest was ich aus den Aussagen rausziehe.
 
Colindo schrieb:
Das kannst du so niemals belegen. Du müsstest für eine objektive Beurteilung die Zahlen der Kommentare entsprechender Threads auswerten.
Wenn ich in die DLSS 2.0 Tests/Threads schaue, benötigt das keinerlei Auswertung, wobei die schlimmsten Kritiker (DarkerThanBlack) hier im AMD Thread zu FSR auch kein Wort verlieren.
Das sagt ja auch schon viel.;)

Colindo schrieb:
Ich behaupte einfach mal, dass du dir selektiv manche Dinge stärker merkst als andere. Alleine schon, dass du unterstellst, die Leute, denen DLSS 1.0 zu schlechte Bildqualität lieferte, würden jetzt jubeln, ist unhaltbar.
Man könnte argumentieren, dass sich die Kritik an der DLSS 2.0 Qualität hauptsächlich daraus nährt, dass Nvidia das Feature nur für ihre Grafikkarten beansprucht, wobei das eigentlich verschiedene paar Schuhe sind, aber es wäre für mich eine passende Erklärung.
Denn der "Matsch" den AMD auf dessen Präsentation gezeigt hat fällt mMn wesentlich stärker auf, als Nvidia mit DLSS 1.0 oder 2.0.

Colindo schrieb:
Du hast es nicht so mit Kontext, oder? Situationen, unter denen bestimme Dinge vertretbar sind oder nicht, können sich ändern. Ein Preis alleine, über 3 Jahre betrachtet, hilft da nicht wirklich.
Da ist nicht viel Kontext nötig. Nvidia stellte 2018 die mit Abstand schnellste Grafikkarte für 999 US Dollar vor.
Mit modernen Features, Raytracing, RT Cores und Tensor Cores, einer Karte an dem sich selbst die schnellste AMD Karte (meine 6900XT) Stand heute inkl. Nutzung deren Features noch die Zähne ausbeißt.

Welche Rahmenbedingungen haben sich denn großartig geändert? Und trifft dein Argument nicht auch auf 1080Ti --> 2080Ti zu, schließlich liegen da auch 1,5 Jahre dazwischen.
AMD ist einfach in der Lage ihr Produkt für diese Preise am Markt zu verkaufen, ergo tun sie es.
Zudem war der Preis der 2080Ti angesichts der schwachen Konkurrenz (Radeon VII) völlig richtig gewählt, andernfalls hätte AMD nicht profitabel sein können.

aldaric schrieb:
Das ist schlicht nicht möglich. Nativ wird immer jeder Rekonstruktion überlegen sein.
q.e.d. lieber Colindo.^^
Ist natürlich nicht böse gemeint.
Aber generell gesagt hat die Radeon GPU im System meine Meinung zu DLSS und RT nicht geändert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Zwiebelsoße schrieb:
Nein, war es eben nicht, es war "versteckt" im eDP Standard und der wurde nicht mal genutzt.


AMD hat Mantle zuerst auch nicht offen gestaltet, es existiert keine böse und gute Firma.

es war dennoch als erstes im Standard drinnen, hätte Nvidia auch einfach nach release von DP1.2 switchen können, bei notebooks war das ja auch so der fall da hat Nvidia bereits adaptive Sync verwendet ^^

by the way ist im Gremium von VESA Nvidia vertreten just saying --> daher hätte man auch hier die inovation vorantreiben können anstatt die Energie in ein closed Feature zu stecken?

ja natürlich, die Praktiken von Nvidia sind aber durchaus proprietär ausgelegt, siehe Gameworks, Physix .... Das man damit grandios scheiteren kann hat man ja auch gesehen.

Mit diesen Praktiken will man Frimen aus dem Markt drängen, das muss einem klar sein, dann dinge wie die 970 das ist arglistige Kundentäuschung da Specs nicht mit der Realität übereinstimmen (siehe falsche ROPs und Cacheangabe ...) muss man das gut heißen?

Das dumme gelaber von "Gut" und "böse" ich habe nie behauptet das AMD unschuldig wäre ... dennoch ist mehr Vielfalt auch ein Vorteil letzten endes für den Kunden, in hinblick auf den player intel der ggf. auch in den GPU sektor einsteigt. Man kann es wie ein Fanboy sehen und nur Marke X unterstützen od. man betrachtet es sachlich und sucht sich das passende Produkt für einen aus.
 
  • Gefällt mir
Reaktionen: jonderson
Zurück
Oben