Chismon schrieb:
Dein Beitrag ist leider ein einziges haltloses Bashing und vielleicht solltest Du Dich einmal auf einen
halbwegs aktuell Stand bzgl. Intel Arc Grafikkarten bringen, was Treiber inkl. DX9 Unterstuetzung angeht, dann wuerdest hier nicht so einen Quark schreiben.
Ok, ich sehe mir den Test an, und sehe in Triple A Spielen Grafikfehler, das ist halt doof oder?
Man liest so und sieht Frametimes sind besser geworden, in CSGO... Super...
Leistungsaufnahme? Nein. Kann ich aber aus Sicht der PCGH verstehen, wird vermutlich dann im Heft stehen.
Leider ist es so das ich weiß, das AMD/NVIDIA Karten unter tausenden alten Titeln einwandfrei funktionieren, da dort eben die Basis der Leute schon seit 10-20 Jahren mit diesen oder älteren Karten spielte.
Also wenn ich jemanden eine Low End Karte (Ist sie halt, auch wenn Sie 200+€ kostet) empfehle, muss ich damit rechnen das diese Person auch ältere Spiele spielt, oder aber Spiele die günstiger sind (Indie).
Chismon schrieb:
Vielleicht solltest Du Dir einmal alte Tests der ersten Gaming-GPU Generationen von nVidia und ATI durchlesen und sehen was damals an verbuggten Produkten auf die Kunden losgelassen wurde, dagegen sind die Intel Arc Grafikkarten schon jetzt vergleichsweise ein Segen.
Wir sind aber im Jahr 2023.
Chismon schrieb:
dass Intel mit den Fingern schnippt und ploetzlich liegen sie in allem vor nVidia und AMD/RTG zu unschlagbaren Preisen mit der ersten Gaming-dGPU-Generation.
So haben sich die Ankündigungen damals gelesen^^
Es ist üpbrigens die zweite Generation der Intel Grafikkarte, die erste hat es nicht in den Handel geschafft (DG1). Da muss ich nicht mal auf Larrabee zurückgehen.
Keinesfalls erwarte ich das selbe Niveau wie bei AMD oder NVIDIA, aber bei >20 Jahren GPU Erfahrung und einschlägigem Personal, nuja. Weniger Treiberfehler wären sinnvoll.
Man weiß aber worauf Intel abzielte, wenn man beachtet das die Karten allesamt keine Mining Bremse haben und mit 8-16GB kommen. Witzig, nicht? Man beachte zu welche Zeit die Karten entwickelt wurden.
Chismon schrieb:
Der Idle-Verbrauch ist also jetzt das Haar in der Suppe, welches gefunden werden musste
.
Eigentlich ist es nur die Spitze des Eisbergs. Und aber auch eine relevante, wenn es immer noch so gravierend ist wie seit Release.
Solange kein Nachtest von bsp. Igor kommt, ist die Karte bei mir durchgefallen.
Mein negatives Bild kommt auch daher, das Intel Jahrzehntelang auch nicht mal die integrierte Grafik so hinbekommt das diese einwandfrei funktioniert. Man hat eine Installationsbasis von vielen Millionen Notebooks, bei denen auch gespielt wird, aber man machte halt 20 Jahre nichts draus.
Wieso zum *** releast man obwohl die Dx9 Performance zu Release quasi inexistent war. Das erschließt sich mir nicht. Das ist der Mittelfinger dem Kunden gegenüber.
Intel kann keinerlei Wettbewerb mit AMD und NVIDIA eingehen, da Sie einfach nicht im selben Performancesegment unterwegs sind. Dadurch fällt das am meisten gewünschte Argument: Wettbewerb, raus. Da jede Karte im DIE und Material so groß ist das AMD und NVIDIA eine 3070 Performancekarte draus machen könnten ist ein anderes Thema (der DIE ist von TSMC!). Diese haben aber so 40-70% Bruttomarge, wird also nix.
Und dann kommt Intel und muss die Karten zum quasi Selbstkostenbpreis anbieten um die Lager leer zu kriegen.
Wenn Intel mit Ihrer eigenen Fertigung bsp. eine Nachfolgerkarte vorstellen, dann bin ich interessiert. Solange es bei TSMC AMD/NVIDIA DIEs wegkauft und damit zur Verknappung und Preissteigerung beiträgt eher nicht. Wenn Intel könnte würden die auch 40-60% Marge nehmen (Hallo Mining).
###
Aber um darauf zurück zu kommen.
Es ist richtig geile Werbung für Intel für Diablo 4 einen Treiber zu bringen.
Mehr aber halt nicht. Kritisieren kann man die dennoch für Ihre Karten, welche normal nie ohne Intel Subvention gebaut werden könnten.