News A770, A750, A580, A380 und A310: Intel Arc A-Serie soll 99 bis 399 US-Dollar kosten

aldaric schrieb:
Dann gehen die Händler halt zu einem anderen Großhändler.
Der aber auch nicht mehr Karten hat...
Ich will dir mal glauben, wenn du sagst, du arbeitest bei einem Distributor, wirklich nachvollziehen kann ich es aber nicht. Entweder es gab Preisgarantien oder man zieht nach.
Ich erinnere mich auch noch, dass sich hier auf CB das eine oder andere Mal muckiert wurde, wenn ein Boardpartner bei später erschienenen Karten mal die UVP nicht verschwiegen hatte und die dann weitaus höher, sprich an die nun marktüblichen Endkundenpreise angepasst, war.
 
BLACKDIAMONT schrieb:
Bin echt gespannt auf die Karten und was Team Grün und Team Rot machen ;)
Die nächste Gen launchen?

Ich behaupte ja immer noch, dass die bei Compute besser dastehn als bei Gaming, und dass das auch Intels eigentliches Ziel ist. Workstation Sleeper-Karten.

Crizzo schrieb:
Können die eigentlich Raytracing? Und sowas wie FSR/DLSS?
Ja und ja. Sollen RT können und mit XeSS ein eigenes Pendant zu DLSS/FSR haben. Wobei die Präsentation von XeSS verschoben wurde, just als AMD FSR 2.0 released hat.
 
Zuletzt bearbeitet:
Die lasche „Dampfgurke“ war aber geplant? So viele Erwartungen da dran gehabt aber nicht mal einen einzigen konnte Intel erfüllen. Es ist beängstigend wie überhaupt der Laden läuft, wenn sie ihre Grafikkarten so als Ramschprodukte auf den Kunden loslassen.
 
Zuletzt bearbeitet:
S.Kara schrieb:
Hast du denn Informationen dass AMD und Nvidia weniger optimieren müssen?
Immerhin optimieren die ihre Treiber auch immer und immer wieder für Spiele. Ich sehe da keinen Unterschied.
Der Unterschied ist, das AMD/Nvidia das zeitnah für sehr viele Spiele tun und das auch können.
Das was man gerade bei Intel sieht, sieht eher so aus, dass denen Erfahrung und Manpower fehlt um das in gleichem Umfang und Qualität zu tun.
Ich wäre nicht überrascht, wenn bei der Intel Grafikkarte eine deutliche Mehrheit an Spielen deutlich schlechter laufen als man von der Leistung erwarten dürfte.
Daher wird es Zeit für unabhängige Tests.

Wenn es so kommt ist der Preis leider nicht wirklich interessant. Das ich mit massiven Nachteilen zur Konkurrenz rechnen muss. Das habe ich nachher nichts von, wenn ich 30€ gespart habe.
 
Leider nicht mehr Konkurenz auf dem Markt. Schade!
 
aldaric schrieb:
Du weißt schon, dass weder AMD noch nVidia an den Marktpreisen während der Krypto-Seuche was verdient haben?

Diese Kohle haben ganz allein die Händler eingesteckt.
AMD und Nvidia mussten ihre UVPs nicht senken. AMD und Nvidia haben Karten mit bereits an Mining-Verhältnisse angepasste UVPs vorgestellt. AMD und Nvidia hatten keine Probleme, jeden Chip auch tatsächlich verbaut zu bekommen.
Sie haben definitiv etwas dran verdient. Das zeigen auch die Kennzahlen aus den Aktionärsberichten.
Strahltriebwerk schrieb:
Dieses Grün-Rote Duopol hat die Spielerschaft jetzt lange genug mit fettem Profit und dreisten Lügen ausgenommen.
Bislang deutet nichts daraufhin, dass Intel irgendetwas diesbezüglich anders machen würde.
k0n schrieb:
...es war ja wenn dann nur mehr Takt. Der Vollausbau stand ja schon ewig fest. Ob nun 70 oder 80...
Die Gerüchteküche sah auch GDDR6X vor, es müsste also auch ein Kombi-Interface auf Hardwarebasis vorliegen.
 
Für die Masse mit wenig Ansprüchen ok und gut für diese Zielguppe, dass ein 3. Hersteller die Bühne nun mit weiteren Grafikkarten betritt.
Für alle anderen Nutzer, die höhere Auflösungen betreiben wollen zu vernachlässigen. Dort reicht in einigen Fällen heute schon nicht mehr das maximal technisch Machbare aus um das zu befeuern
 
Also ist die stärkste Karte in gut laufenden Spielen auf Niveau einer 1080 ti, bei ähnlichem Verbrauch. Da hängen die aber ein paar Generationen zurück...
 
Beitrag schrieb:
Ich will dir mal glauben, wenn du sagst, du arbeitest bei einem Distributor, wirklich nachvollziehen kann ich es aber nicht. Entweder es gab Preisgarantien oder man zieht nach.
Im B2B Markt, besonders wenn du Zulieferer bist - wie AMD und NVIDIA hier - gehst du mit deinen Kunden anders um. Hier werden Verträge nicht auf Monatsbasis geschlossen, sondern auf wesentlich längere Zeiträume, mit entsprechenden Preisgarantien und du ziehst nicht während des laufenden Vertrages die Kosten einfach so an, das geht nicht einfach.

Die Möglichkeit "Preiserhöhungen" durchzudrücken, besteht oft nur, wenn man die Lieferverträge einseitig kündigt und dann wird es für NVIDIA unangenehm. Man zerstört das Vertrauen, hat die Vertragsstrafe und am Ende ist man ggf. sogar Schadensersatzpflichtig und hier reden wir dann nicht mehr von Peanuts, sondern dass die eigentliche Preissteigerung mehr als aufgefressen wird und NVIDIA vom Gericht auch zum alten Preis verdonnert werden kann.

NVIDIA wird die Preise aber auch angezogen haben, aber eben nicht sofort, sondern erst bei Nachbestellungen und wenn die Folgeverträge geschlossen wurden.

S.Kara schrieb:
Hast du denn Informationen dass AMD und Nvidia weniger optimieren müssen?
NVIDIA und AMD arbeiten seit Jahren daran, dass sie wirklich auf ein Spiel spezifisch vorgenommene Optimierungen vermeiden, das ist auch ein Grund, warum AMD damals Mantle vorstellte und sich DX12 und Vulkan ergeben haben.

Intel hat in einem Interview bereits zugeben, dass sie neben den üblichen Optimierungen, was AMD und NVIDIA als Profile für Spiele hinterlegen, deutlich tiefgreifendere Änderungen gerade an Shadern vornehmen.

AMD und NVIDIA passen Shader von Spielen in der Regel aber nicht an und die optimierten Treiber von NVIDIA und AMD bringen in der Regel < 5 % an zusätzlicher Leistung. In den Profilen werden Anweisungen für verschiedene Codepfade im Treiber, Anweisungen für Speicher- und Cacheverwaltung, Compileranweisungen für den Shader (Flags) mitgeben, ansonsten wird alles Weitere vermieden, weil man die Büchse der Pandora öffnet.

Intel wiederum muss tiefgreifende Änderungen an den Shadern vornehmen und das fängt bei Anweisungen zu den Wavefronten an - wird per Compilerflag entschieden, macht NVIDIA und AMD auch, geht bei Umsortierung der Befehle weiter - ist auch über eine Flag steuerbar und kleines 1 * 1 des Compilers. Intel ersetzt dazu allerdings auch ganze Codeblöcke in den Shadern, was über Anpassungen der Wavefronten und Umsortierung der Befehle hinausgeht. Entsprechend schafft hier Intel auch Werte x > 10 % (14 %).

Auch hat Intel in ihrem Interview aus zugeben, dass sie auf massive Anpassungen durch die Spieleentwickler angewiesen sind, weil der aktuelle Code, der da produziert wird, zwar den anderen beiden Anbietern schmeckt, aber nicht ihrer Grafikkarte.

Es gibt halt aktuell ein großes Problem: Die Spieleentwickler kennen AMD und NVIDIA und beide lege sich zwar durchaus "Steine" in den Weg, wenn sie bei einem Spiel bei der Optimierung helfen, da geht es aber oft eher darum, dass man spezifische Stärken der Architektur ausspielt - NVIDIA hat lange Zeit massive Tesselation-Faktoren gewählt, die AMD nicht verkraftet, AMD wiederum hat die ASYNC-Fähigkeiten der GCN in den Fokus gerückt. Der allgemeine Shadercode haben aber beide Entwickler "generell" optimiert, sodass beide Firmen davon profitiert haben.


MasterAK schrieb:
Und Intel hat XESS, was so ein Upscaling wie FSR / DLSS ist.
Ob es wirklich so wie FSR 2.0 oder DLSS arbeitet, wird man abwarten müssen. Was bisher an Informationen vorhanden ist, steigt XeSS etwas früher aus als FSR 2.0 und DLSS und könnte daher auf der einen Seite bestimmte Bildfehler vermeiden, auf der anderen Seite könnte der Leistungssprung am Ende nicht so hoch sein, wie man erwartet.
Powl_0 schrieb:
Als DLSS Alternative will Intel XeSS etablieren (auch mit Deep Learning Anteil).
Auch wenn Intel DL verwendet und eine temporale Komponente, kann die Arbeitsweise sich vion DLSS und FSR 2.0 deutlich unterscheiden.

So wie ich es bisher verstehe - Computerbase hat ja XeSS vorgestellt, mit einer entsprechenden Grafik - kommt zwar Deep Learning und eine Temporale-Komponente zum Einsatz, gleichzeitig steigt XeSS vor DLSS und FSR 2.0 aus, nämlich nach dem Rastern des Bildes. Ebenso wird die Auflösung des Bildes anders heruntergebrochen.

XeSS arbeitet mit einem Jitter, in dem Fall - wenn man die Informationen und Grafiken nimmt - wird das Bild mit der eigentlichen Auflösung gerendert, nur dass eben Zeilen ausgelassen werden. Das verringert die Auflösung auch, erzeugt aber ein anderes Bild, das anders gefüllt werden muss.

Die Frage, die sich mir aktuell stellt: Was meint Intel mit Raster & Lightning und anschließend Post Process, das könnte entscheidend werden. Ist es so, wie ich die heutige Pipeline kenne, dann steigt XeSS einen Schritt vor FSR 2.0 und DLSS aus, dann laufen in verringerter Auflösung die Vertex-Shader und nur ein Teil der Pixel-Shader ab, dann wird das Bild zusammen gesetzt und weitere Effekte wie SSOA und Co werden anschließend berechnet bei voller Auflösung.

Intels Ansatz könnte gewisse Probleme vermeiden, da diese überhaupt nicht auftreten, an andere Stelle könnte das Plus an Leistung geringer ausfallen.

Man wird abwarten müssen.
 
  • Gefällt mir
Reaktionen: Palomino, Rockstar85, MasterAK und eine weitere Person
Die Intel Intel Arc A310 Grafikkarte für gut 120 Euro ist eine echte alternative zur Geforce GT 1030 ,
die Intel Arc A310 werde ich mir mal anschauen.

frankkl
 
frankkl schrieb:
Die Intel Intel Arc A310 Grafikkarte für gut 120 Euro ist eine echte alternative zur Geforce GT 1030 ,
die Intel Arc A310 werde ich mir mal anschauen.

Alternative zu einer Karte, die ich schon seit Jahren im Schrank liegen habe, die mir selbst für meinen Entwickler/Office-Rechner zu langsam war.

Und das für 120 Euro im Jahre 2022?!?!

Ich glaube ich sollte die GT 1030 für 100 Euro gebraucht bei eBay verkaufen ;-)
 
  • Gefällt mir
Reaktionen: Powl_0
Ich denke wirklich das Intel als Chipentwickler brauchbare Hardware liefern kann. Aber irgendwie traue ich dem Treiber nicht so ganz. Die waren bisher immer absoluter Abfall und da ist AMD und Nvidia um längen besser aufgestellt!
 
Team rot und grün werden ihre Verlustleistung so hoch schruaben, dass Intel kein Land mehr sieht, in der Hoffnung, dass Intel den grakamarkt wieder aufgeben muss. Das wird aber nicht passieren. Intel hat gemerkt, dass der markt gerade für große Datacenter zu wichtig ist. Xeon Phi waren ja auch Ladenhüter.
 
DevPandi schrieb:
Auch hat Intel in ihrem Interview aus zugeben, dass sie auf massive Anpassungen durch die Spieleentwickler angewiesen sind, weil der aktuelle Code, der da produziert wird, zwar den anderen beiden Anbietern schmeckt, aber nicht ihrer Grafikkarte.
Nein, haben sie nicht. Spezifische Herstelleroptimierungen seitens der Entwickler kommen in der Praxis eher selten vor, da die komplizierte Ausführungspipeline aus Sicht der Entwickler eine Blackbox ist.

Nicht umsonst hat man abstrakte Schnittstellen geschaffen, gegen die Entwickler implementieren.
 
Katzenjoghurt schrieb:
Mal ehrlich: Überlegt denn wirklich jemand hier ernsthaft, sich die zu kaufen?
Wie niedrig müssten die Preise sein
Im Abverkauf abgreifen und in die Vitrine stellen.
Sollte Intel so hart failen, dass die erste gen auch die letzte bleibt, wird die Karte umso bedeutender.
 
flappes schrieb:
Und das für 120 Euro im Jahre 2022?!?!
Ja ich weiss schon etwas hochpreisig für eine Grafikkarte aber dafür hat man dann erstmal viele Jahre ruhe.


flappes schrieb:
Alternative zu einer Karte, die ich schon seit Jahren im Schrank liegen habe, die mir selbst für meinen Entwickler/Office-Rechner zu langsam war.
Ist deine GT 1030 mit DDR4 ?

Sowas !

https://geizhals.de/msi-geforce-gt-1030-2ghd4-lp-oc-v809-2825r-a1808869.html?hloc=de

frankkl
 
frankkl schrieb:
aber dafür hat man dann erstmal viele Jahre ruhe.
? Mit Low End Karten hat man doch tendeziell eher weniger Jahre Ruhe.
 
Kommt darauf an was man damit macht. Web/Office/Emulation und auch Spiele mit wenig Anspruch dürften auch für die nächsten Jahre kein Problem sein.
 
flappes schrieb:
Alternative zu einer Karte, die ich schon seit Jahren im Schrank liegen habe, die mir selbst für meinen Entwickler/Office-Rechner zu langsam war.

Und das für 120 Euro im Jahre 2022?!?!

Ich glaube ich sollte die GT 1030 für 100 Euro gebraucht bei eBay verkaufen ;-)
Typische Aufrüstkarte wie es sie früher gab um den Rechner für AV1 usw. zu rüsten. Die A380 ist vermutlich der bessere Deal. Deine 1030 hat genauso wie 1630 und RX6400 in 2022 nichts mehr zu suchen. Dem GP108 aka GT1030 fehlten als Vorgänger der RX6400 in der Hall of Shame alle Encoder.
Nvidia und AMD haben sich lange genug ausgeruht und den Einsteigermarkt mit rückständigen, beschnittenen Karten abgewürgt.
Intel muss liefern bevor Nvidia womöglich mit Ada noch ein steckerloses Amperebaby für den Einsteigermarkt bringt, eine Art RTX2050/MX 570 für den Desktop.

Corpus Delicti schrieb:
Mein Tip: Intel versucht überhaupt erst einmal DX12 zum Laufen zu bekommen.

Dementsprechend sind alles was DX11 + DX9 nutzt zu alt.
Intel durchlief diese Entwicklung mit den iGPU in Sandy-Bridge, IB, Haswell usw. Mit jeder Generation kam Unterstützung für eine neuere DX-Schnittstelle. ARC wiederholt das Spiel unnötigerweise.
Zuerst als GPU für Rechenzentren entwickelt sollte der Notebookmarkt ebenfalls mit den AV1-Fähigkeiten erschlossen werden. Dafür wurden vor dem Launch Partner gewonnen. In erster Linie ging es darum die Nvidiadominanz in Notebooks zu durchbrechen. Dafür braucht es keine große Spieleleistung.
Diese wurde zu spät vom Marketing als Ziel bestimmt und nun frickelt Intel an den Treibern herum, so sieht es für Außenstehende aus. Dabei sollte die Treiberentwicklung bei den iGPU eine gute, bessere Basis bilden.
 
  • Gefällt mir
Reaktionen: Gizzmow und Col.Maybourne
Zurück
Oben