News Intel XeSS Technology Deep Dive: Intel Xe Super Sampling für 20 Spiele angekündigt

Draco Nobilis schrieb:
Das die Grafikkarten ein Reinfall sind, wird wohl inzwischen kaum noch jemand bezweifeln.
Zumindest in dieser Generation.
Da weist du aber mehr als die weltweite Fachpresse. Magst du bitte etwas weiter ins Detail gehen?
 
  • Gefällt mir
Reaktionen: FX-Multimedia
DJMadMax schrieb:
Da weist du aber mehr als die weltweite Fachpresse. Magst du bitte etwas weiter ins Detail gehen?
Ich denke ich weiß es von der (bsp. deutschen) Fachpress, welche die A380 Gunnir auf eigene Faust gemeinsam importierten:
Computerbase
Golem
IgorsLAB

Man kann jetzt Wortklauberei betreiben oder eine andere Meinung haben, die erste Gen der Intel Grafikkarten ist dennoch für Spieler, selbst bei besseren P/L, nicht zu empfehlen. Dann besser im Gebrauchtmarkt umsehen oder etwas länger sparen für weniger Ärger im Nachgang.

Vgl. zur bsp. AMD Bulldozer CPU Reinfall ist es nicht nur das Sie langsamer und ineffizienter sind als Konkurrenz, nein, es gibt auch diverse Probleme das diese überhaupt sinnig funktionieren (Microstuttering, DX9 Games etc. pp.).

Wären wir noch in der Mining Hochzeit, hätte man Intel alles aus den Händen gerissen.
Wäre nicht jetzt bald Release der neuen AMD/NVIDIA Grafikkarten, hätte Intel auch noch bessere Preispunkte setzen können.

Somit bleibt intel HPC und professionelle Anwendungen für die erste Gen.
Da können Sie besser Punkten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und Onkel Föhn
Qualitativ bin ich von XeSS Performance beeindruckt: schärfer als nativ + TAA und Details werden besser herausgestellt (da die Konturen schärfer gezeichnet werden). Darüber hinaus konnte ich auf Anhieb nicht erkennen, dass Details verloren gegangen sind.Und das im Performance-Mode!?
Aber das Video ist keine gute Bewertungsgrundlage, da schon in der Qualität komprimiert.
Also bezogen auf die stills vom 3DMark. Kaum glaubhaft, haben doch AMD und Nvidia es nicht geschafft, im Performance-Mode akzeptable Qualität abzuliefern. Aber vielleicht ist Intels Ansatz effektiver, who knows.

Daher mal unabhängige Tests abwarten.

Bzgl. AMD vs. NVIDA vs. INTEL: Langjährige Nutzer einer Marke wechseln ungern das Lager, auch wenn die Konkurrenz hin und wieder das bessere Produkt im Angebot hat. Die freuen sich nur, dass durch die erstarkte Konkurrenz die Preise gedrückt werden und man sich nicht mehr so stark melken lassen muss. Aber mal ein Konkurrenz-Produkt in Erwägung ziehen? Nee, geht ja mal gar nicht, wie kann ich meine Gewohnheiten hintergehen???
Das führt im Endeffekt dazu, dass sich die Verhältnisse um die Marktanteile nicht so schnell ändern, wie es im Idealfall durch die Überlegenheit der Konkurrenzprodukte der Fall wäre.
Der Mensch und seine Gewohnheiten. Diese zu durchbrechen erfordert viel Überzeugungskraft.
Oder ganz plump: Was der Bauer nicht kennt, dass frisst er nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Onkel Föhn, DynamaxX und eine weitere Person
@Draco Nobilis
Die Artikel von Igor und Golem kenne ich nicht, aber zumindest bei @Wolfgang kann ich mit Sicherheit sagen, dass hier nicht von einem Flop der aktuellen Generation gesprochen wird. Sicher gibt es noch viele Ecken und Kanten, aber gemessen an dem, was Intel hier praktisch ohne große Vorkenntnisse aus dem Boden gestampft hat, ist ARC (wenn auch nicht wirtschaftlich) ein voller Erfolg.

Du wertest den Begriff "Erfolg" hier leider auch vollkommen falsch. Ich hatte gestern erst diese Diskussion und muss sie leider schon wieder beginnen: fangt mal an, ein wenig über euren Tellerrand hinauszublicken. Die Welt endet keinesfalls am Rand des Monitors mit 165 Hz in UHD am Triple A-Titel.

Das, was Intel zum Start (der offiziell noch nicht einmal erfolgt ist) abliefert, ist zwar holprig, grundsätzlich aber lauffähig und schon deutlich mehr, als alle anderen Blender, die so in der IT-Welt herumkursieren:
KaiXiam KX-6000
ZhaoXin Glenfly Arise-GT-10C0

Und noch viele weitere, deren Namen mir spontan (zum Glück) nicht mehr einfallen wollen.
 
Ganz ehrlich, wie kann man sich Arc dermaßen schönsaufen?
 
  • Gefällt mir
Reaktionen: ThePlayer
@guggi4
Ganz ehrlich, wie kann man bereits vor Release so eine absolut Meinung haben?

Man muss bei Arc zwischen Produkt und Marketing/Launch differenzieren.

Das Marketing und der Launch sind ein absolutes Desaster. Insbesondere wenn man zwischen den Zeilen zu allem Übel noch liest, dass Dritthersteller gar keinen Bock auf Arc haben, weil Intel keine Sicherheiten verspricht..

Über das Produkt Arc selber können wir aber noch gar nicht fundiert urteilen. In Teilbereichen zeigt die A380 aber durchaus, dass die Architektur nicht komplett furchtbar ist. Sofern sich die Treibersituation massiv bessert, könnten die A750 und die A770 doch recht interessant werden. Also erstmal Abwarten und schauen was so passiert.
 
  • Gefällt mir
Reaktionen: RotkohlRitter, Schinken42, Smartbomb und 6 andere
Und inwiefern lassen die Tests und vor allem auch die Preise der A380 darauf schließen, dass der große Chip plötzlich eine Kaufempfehlung werden soll?
 
  • Gefällt mir
Reaktionen: ThePlayer
@DJMadMax dann solltest du die Test noch nachlesen, es lohnt sich

https://www.igorslab.de/intel-arc-a...ks-detailanalysen-und-ausfuerlichem-teardown/

https://www.golem.de/news/arc-a380-...in-prae-historisches-problem-2207-166780.html

Dabei haben alle 3 Redaktionen zusammengearbeitet und jeweils eigene Schwerpunkte gelegt.

DG1 Test damit man etwa sieht wie sich das entwickelt hat, bei dem Regen Samstag auch nicht verkehrt.

https://www.igorslab.de/gunnir-iris...und-die-suche-nach-dem-passenden-microcode-2/
 
  • Gefällt mir
Reaktionen: Onkel Föhn, lynx007 und DJMadMax
DJMadMax schrieb:
Sicher gibt es noch viele Ecken und Kanten, aber gemessen an dem, was Intel hier praktisch ohne große Vorkenntnisse aus dem Boden gestampft hat, ist ARC (wenn auch nicht wirtschaftlich) ein voller Erfolg.
Ohne große Vorkenntnisse? Intel entwickelt (i)GPUs seit Jahrzehnten ...
 
  • Gefällt mir
Reaktionen: Smartbomb, ThePlayer, Onkel Föhn und 3 andere
y33H@ schrieb:
Ohne große Vorkenntnisse? Intel entwickelt (i)GPUs seit Jahrzehnten ...
MediaTek auch - und, wie spieletauglich sind diese? Wieso schnappen die sich nicht auch das große Kuchenstück vom Desktop-Gaming-Markt?

Ich sagte nicht, dass Intel keine Ahnung von dem hat, was sie da tun - das ganz gewiss nicht - aber dennoch steht Intel hier ganz am Anfang der Entwicklung in einem für sie seit über 20 Jahren unbekannten Terrain. Du kannst die "notdürftigen" iGPU-Implementierungen keinesfalls mit einer dedizierten RTX 3000 oder einer RX 6000 vergleichen - sehr wohl aber die Arc. Mit dem Hintergrund, dass (und da ändert sich eben nichts) Intel in diesem Segment neu einsteigt, ist Arc für mich weiterhin ein gelungener Schritt in die richtige Richtung.

Zum Vergleich:
Wie viele Schritte hat AMD im Bereich der CPUs seit ca. 2003 benötigt, um 2017 endlich wieder zum ersten Mal konkurrenzfähig über alle Segmente hinweg mitspielen zu können? Der letzte AMD-Prozessor, der nennenswert am (vor allem Gaming-)Markt empfohlen werden konnte, war der XP mit Barton-Kern von 2003. Danach folgte viele Jahre eine teils desaströse Durststrecke, wo sich die gesamte IT- und Wirtschaftswelt gefragt hat, wie AMD überhaupt noch leben kann nach teils mehreren MILLIARDEN (!) Verlusten pro Jahr (und das mehrfach). Ich wage zu behaupten, dass - wenn Intel hier am Ball bleibt - keine 14 Jahre wie bei AMD (bis Zen, 2017) in's Land ziehen werden.

Es ist weiterhin schade, dass viele (hier wie auch andererorts in Foren) nur die blanken FPS sehen. Laut "euch" ist ein Produkt ist nur dann gut und erfolgreich einzustufen, wenn es die Konkurrenz in allen Belangen schlagen kann. Es muss mehr FPS liefern bei gleichzeitig weniger Stromverbrauch, der Treiber muss so perfekt sein, dass er die Nutzerwünsche hellsehen kann und die Bildqualität soll selbstverständlich auch so fortgeschritten sein, dass Elite vom NES ohne Fremdcode in ein Star Wars Rogue Squadron gerendert werden kann.

Dabei liegt die Wahrheit ganz wo anders. Ich bin weiterhin der festen Überzeugung, dass Intel den chinesischen Markt mit der "kleinen" Arc A380 genutzt hat, um eine Flut an Informationen zu sammeln und diese Erkenntnisse nach Möglichkeit vollumfänglich in die 500er und 700er Serie steckt. Das wäre zumindest die für mich logischste Erklärung des vielerorts als "Launch" empfundenen ... naja... Nicht-Launches.
 
  • Gefällt mir
Reaktionen: Orionus
DJMadMax schrieb:
MediaTek auch - und, wie spieletauglich sind diese? Wieso schnappen die sich nicht auch das große Kuchenstück vom Desktop-Gaming-Markt?

Dabei liegt die Wahrheit ganz wo anders. Ich bin weiterhin der festen Überzeugung, dass Intel den chinesischen Markt mit der "kleinen" Arc A380 genutzt hat, um eine Flut an Informationen zu sammeln und diese Erkenntnisse nach Möglichkeit vollumfänglich in die 500er und 700er Serie steckt. Das wäre zumindest die für mich logischste Erklärung des vielerorts als "Launch" empfundenen ... naja... Nicht-Launches.

MediaTek nutzt lizensierte ARM IP Blöcke mit dem Cadence Interconnect layout. Qualcomm wäre da ein besseres Beispiel gewesen und die haben das Problem der Skallierbarkeit ihrer VLIW Architektur. ARM selbst bekommt bis heute keine effiziente Speicherkomprimierung und Speichermanagment (Cache-Ebene) hin. Wie gut Intels früheren IGPU Archs mit den hohen Latenzen von GDDR Speicher zurecht gekommen wären ist auch eine gute Frage, welche einem so vermutlich nur Intel beantworten kann.

Das funktioniert höchstens für den Treiber und da wäre ein Testbalon in der Größe sehr seltsam. Traditionell hat man meist mehrere interne Validierungen und das Ganze geht dann zur externen validierung an Industriepartner, Devs, Unis und Ing Büros raus. Vielleicht dauerte das normale Vorgehen dieses mal zu lange oder es gab sonstige Probleme.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Mal ganz unabhängig zum Inhalt:
Bei Intel XE Super Sampling erwartete ich eine Option auf ... Supersampling bei Intel Grakas. Kein upscaling, was praktisch das Gegenteil ist.

Supersampling -> höher aufgelöst rendern und die Infos zur Glättung nutzen
Upscaling -> niedriger aufgelöst rendern und die fehlenden Infos interpolieren

Da fühle ich mich rein von der Namensgebung her ein wenig verarscht. Wie ein VW Golf (Modell suche man sich danach aus was man vom upscaling hält) mit Mercedesstern vorne und '911 Carrera S' hinten.
Selbst wenn die Technik darunter gut funktionieren sollte.
 
  • Gefällt mir
Reaktionen: lynx007
Supersampling heißt, dass man pro Pixel mehrere Samples hat, die verrechnet werden.

Genau das macht man bei diesen Techniken.

Zudem werden die Samples sowohl für AntiAliasing verwendet als auch für das Zusammensetzen eines Bildes in höherer Auflösung.

Ich verstehe deine Kritik, aber rein technisch ist es auf keinen Fall Upscaling.
 
  • Gefällt mir
Reaktionen: Schinken42 und mkl1
Also zumindest das 3DMark Beispiel von Intel ist für mich Augenwischerei, weil hier eine Szene mit Tiefenunschärfe mit der durch XeSS verarbeiteten und nachgeschärften Scene verglichen wird.

Denn die gleiche Scene in Full-HD hat weniger Unschärfe (anzahl verwischter Pixel) als UHD und lässt sich dadurch besser upscalen und nachschärfen und sieht dann scheinbar besser aus als das Original.

Verglichen mit einer knack scharfen UHD Aufnahme ohne Tiefenunschärfe, würde das XeSS Beispiel deutlich schlechter abschneiden ...meiner Meinung nach!
 
DJMadMax schrieb:
Sicher gibt es noch viele Ecken und Kanten, aber gemessen an dem, was Intel hier praktisch ohne große Vorkenntnisse aus dem Boden gestampft hat, ist ARC (wenn auch nicht wirtschaftlich) ein voller Erfolg.
Nochmal, vgl. zu AMD und NVIDIA kann man diese Karte / Generation bei Intel nicht empfehlen.
Punkt aus Ende. Um mehr geht es nicht, das habe ich ganz klar geschrieben.
Die Tests sagen das aus. Vgl zu DG1 Test von Igor hatte schon jemand gelinkt.

Was mit einer anderen Generation ist, sollte Sie je erscheinen, wird man sehen.
Diese Karte ist nicht konkurrenzfähig. Vor allem einfach zu spät.
Technisch ist das alles interessant und mal was neues, das wars aber auch.

So tolerant man auch sein kann. Hier ist es einfach vorbei mit wischiwaschi.
Es ist ein größerer Flop als es Bulldozer je war. Der ist wenigstens vollständig erschienen.
Es bleibt nur abzuwarten ob es besser werden kann.

DJMadMax schrieb:
Ich hatte gestern erst diese Diskussion und muss sie leider schon wieder beginnen: fangt mal an, ein wenig über euren Tellerrand hinauszublicken. Die Welt endet keinesfalls am Rand des Monitors mit 165 Hz in UHD am Triple A-Titel.

Leute außerhalb des "Tellerrandes" kaufen eine GTX 1650 oder Radeon 6500 XT oder eine der gebrauchten Grafikkarten. Wenn diese mutmaßliche Person ein Chinese ist, kann diese auch gleich gebrauchte Mining Grafikkarten kaufen. Da liegen Millionen von herum. Und warum bsp. ein chinesisches Internetcafe sich die derzeitigen Intel Karten antun soll, vgl. einer AMD und NVIDIA Karten, könnte mir vermutlich niemals jemand erklären. Der wirtschaftliche Erfolg der Karte wäre für mich ein Rätsel, das mir gerne jemand erklären könnte. Wie ein non-AAA Game mit möglicherweise Dx11 oder drutner auf der Intel karte laufen soll, das hat uns Intel selbst mit der Tier Liste gesagt.
Immerhin ist die Kommunikation doch seitens Intel ziemlich gut und ich sehe keine Ausrutscher.

Intel hat seit Jahrzehnten eine entsprechende Abteilung, diese wurde seit mindestens 5 Jahren doch deutlich stärker ausgebaut. Nimmt der Grafik Teil bei mobile Lösungen flächentechnisch einen großen Anteil der CPU ein. Es ist halt auch bereits Generation 2 (DG2). Wie viel Erfahrung soll man noch haben?
Es ist eine Mammutaufgabe keine Frage, in Gen 2 ist Intel meiner und der Testansicht aber erst mal gescheitert.

Vergleiche mit China Konkurrenz sind komisch.
Benutzt man dort uralten Prozess weil die "wertebasierte" Weltpolizei einfach sagt das man keinen modernen von TSMC nutzen darf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer
@Draco Nobilis
Wie gesagt, rein auf Leistungsbasis bin ich da bei dir, ich würde doch auch niemandem zum aktuellen Zeitpunkt eine Arc-Karte empfehlen.

Das Kapitel ist aber noch nicht abgeschlossen und solange würde ich einfach mal abwarten, was da noch kommen mag.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Wintermute, Draco Nobilis und eine weitere Person
Unterstützen diese 20 Spiele schon XeSS oder kommen da noch Patches? Wenn die XeSS schon unterstützen dann wäre das ja ganz schön krass.
Und wozu soll jetzt der XeSS Benchmark im 3DMark gut sein?
 
Bigeagle schrieb:
Supersampling -> höher aufgelöst rendern und die Infos zur Glättung nutzen
Upscaling -> niedriger aufgelöst rendern und die fehlenden Infos interpolieren

Da fühle ich mich rein von der Namensgebung her ein wenig verarscht.
Da ist ja auch nicht von "Supersampling" sondern von "Super Sampling" die Rede, vielleicht macht das ja den Unterschied. Super ist schließlich immer Super und hört sich auch Super an. ;)

ThePlayer schrieb:
Und wozu soll jetzt der XeSS Benchmark im 3DMark gut sein?
Um als schlechtes Beispiel gut dazustehen und um Bildschärfe zu zeigen wo eigentlich keine sein sollte (wegen der ursprünglich beabsichtigten Tiefenunschärfe im 3DMark).
 
Zurück
Oben