News Intel Arc: 43 % mehr FPS mit DX9, Preisreduzierung der Arc A750

Sieht echt genial aus, bin jetzt wirklich am überlegen mir eine Arc A770 zuzulegen nach dem Update.
Für den Preis sollte sie jetzt locker die 3060 TI schlagen und mindestens 50€ - 60€ günstiger sein.
 
danyundsahne schrieb:
Hört sich natürlich alles toll an, aber wenn man mit der Arc750/770 teilweise nur halb so schnell ist wie die Konkurrenzprodukte, dann kommt man mit +43% noch nicht mal in Schlagdistanz...
Für unter 300€ wäre die Karte bei 43% Zuwachs schneller als eine 3060 ti - und die kostet über 400€. In Videoencoding wie Handbrake dient die Karte auch gern mal als Beschleuniger und zieht dort sogar mit der 8x so teuren 4090 gleich. Die Daseinsberechtigung ist mehr als gegeben :D
 
  • Gefällt mir
Reaktionen: olligo
  • Gefällt mir
Reaktionen: katz3
Mich reizen die intel Karten auch, jedoch ist meine 5700xt noch mehr als gut unterwegs. Ich glaube aber auch, dass Intel Alchemist generell als Experiment sieht.

Habe da ja ne Theorie, die mit dem Namen zusammen hängt :

Alchemist - mixt Dinge zusammen und hofft, dass was gutes raus kommt. Experimentiert.

Battlemage - Kriegermagier. Nimmt das Duell auf (mit grün und rot)

Celestial - himmlisch. Also mit oben dabei, vielleicht sogar etwas besser als die Konkurrenz
 
  • Gefällt mir
Reaktionen: Stuffz
Also bleibt die Empfehlung bestehen, dass man mit der nächsten Generation vielleicht einen Start für die Allgemeinheit erwarten kann.
Wie sieht eigentlich die Verbesserung bei der "Paradedisziplin" DX12 aus?
Sind neue Spiele immer noch schlechter als die Konkurrenz?
Schlechtere Performance und grottige Frametimes bei neuen Spielen sollte sich Intel nicht leisten dürfen, wenn man schon speziell Werbung dafür macht und alle alten Spiele nach Möglichkeit ausklammert, wo das ja stellenweise extrem schlimm ist.
Zumindest ist ja Besserung in Sicht, dass jetzt zumindest eine breite Lauffähigkeit ähnlich wie bei Linux möglich erscheint.
Fehlen auch noch Features in der Software für Übertakter etc., dann die besagte Entfernung der Overlaykacke.
Ja, da kann man in einem Jahr mal wieder reinschauen, wie der Stand der Dinge ist.
Die neuen Karten verschieben sich ja eh.
Ergänzung ()

Baene schrieb:
Mich reizen die intel Karten auch, jedoch ist meine 5700xt noch mehr als gut unterwegs. Ich glaube aber auch, dass Intel Alchemist generell als Experiment sieht.

Habe da ja ne Theorie, die mit dem Namen zusammen hängt :

Alchemist - mixt Dinge zusammen und hofft, dass was gutes raus kommt. Experimentiert.

Battlemage - Kriegermagier. Nimmt das Duell auf (mit grün und rot)

Celestial - himmlisch. Also mit oben dabei, vielleicht sogar etwas besser als die Konkurrenz

Man muss 4x Leistung bringen, wenn man NVidia einholen will.
Das Problem ist aber: man kann nicht einfach nur mehr Einheiten auf die Platine pappen.
Ansonsten hätte AMD das in der Vergangenheit schon des Öfteren getan.
Das Problem sind Platz, Machbarkeit und Kosten.
Also benötigt Intel mehr "IPC". Massig davon.
Na dann viel Spaß.
Natürlich legt nvidia sich jetzt erst einmal 5 Jahre schlafen, so wie Intel damals bei Bulldozer.
Nein, tun die nicht. Schließlich würde vor allem AMD das ja ausnutzen.
 
Zuletzt bearbeitet:
Interessant finde ich ja die Leute, die es toll finden, dass Intel in der GPU Sparte mitmischt und hoffen dadurch, dass die Preise von AMD und NVidia fallen - aber keine GPU von Intel kaufen. Es sollen immer die anderen machen.

Das Gleiche mit den Meckerern: Mund aufmachen und bashen, aber nicht durch den Kauf der Karten Intels GPU Sparte unterstützen. Es sollen immer die anderen machen.

Meine Karte rennt echt gut, ich kann eigentlich alles zocken, was ich will. Und das sind keine DX9 Games, dafür habe ich einen Retro-Rechner. :)
 
  • Gefällt mir
Reaktionen: Atlan2101, Schrotti und msv
Moep89 schrieb:
Hä? Ein schrottiges Bios ist eine unveränderbare Hardwarelimitierung? Habt ihr da Müll übersetzt oder hat der den Käse wirklich so rausgehauen?
Das BIOS ist in dem Fall nicht wirklich grottig, die Probleme liegen eher daran, dass Intel bei Arc sich gewisse Schaltungen sparen wollte und daher auf den PCIe-Standard setzt, um die GPU zu kontrollieren. ASPM ist dabei sogar noch relativ "grob", was hier zu Problemen beim Energiebedarf führt. Wenn dann entsprechende Funktionen im UEFI/BIOS des Mainboards nicht korrekt unterstützt werden, ist das für Arc aktuell fatal.

duskstalker schrieb:
Quatsch. Die Karten laufen seit Ende November ziemlich gut und mit jedem neuen Treiber ein bisschen besser.
Man sieht hier halt wieder, wie wichtig der erste Eindruck eines Produktes ist, weil dieser sich fest setzt. Das ist das Gleiche bei der 7900 XTX und dort dem Idle, normaler Desktopnutzung und YouTube. Dass sich da mit den Patches im Dezember einiges getan hat, bekommen viele nicht mehr mit.

Arc hat sich in den letzten Monaten wirklich gemausert, was die Treiber angeht und viele Probleme sind Geschichte und Intel fängt nun auch an einen nativen DX9 und DX10-Support umzusetzen.

duskstalker schrieb:
In produktiv Anwendungen sind die arc Karten auch schon besser/fehlerfreier als radeons
Kommt auf die Anwendung an. In manchen ist Arc deutlich besser als Radeons, in anderen sind die Radeons besser. NVIDIA ist hier aktuell aber immer noch deutlich besser aufgestellt. Gerade der Studio-Treiber ist da aktuell ein richtiger Mehrwert.

Aber gerade der Workstationmarkt ist ja auch ein Grund, warum Intel "Arc" aus der Taufe gehoben hat. NVIDIA arbeitet stark daran, die CPU aus dem Spiel zu nehmen, was HPC, aber auch den Content Creation-Markt herauszunehmen. CUDA ist der Standard und NVIDIA arbeitet immer offensiver auch mit Entwicklern von entsprechender professioneller Software zusammen, um alles, was irgendwie "viel" Leistung benötigt auf die GPU zu packen. In manchen Bereichen ist es vollkommen egal, was für eine CPU man kauft, wichtig ist nur, dass die GPU die Rechenleistung hat.

Zeigt sich - bedingt - auch auf Apple-Geräten schon, dass hier über Metal und den GPU-Parkt bereits iPad Pros mit M1 oder M2 für so manche Aufgaben im Content-Bereich absolut ausreichend sind.
AtomLord schrieb:
Bald kommt ja noch der Treiber, der den kürzlich entdeckten Bottleneck im Treiber beseitigt, dann gibt es hoffentlich noch einen ordentlichen Boost richtung 3070TI ... ^^
Sprichst du auf den PCGH-Test an und da die Äußerung? Man muss da abwarten, was da wo die Probleme sind und ob das noch DX12/Vulkan und DX11 oder erneut DX9-Probleme sind.

Geht man von den nackten Zahlen aus, müsste sich eine Arc A770 zwischen einer RX 6800 / 6800 XT und damit auch zwischen einer GeForce RTX 3070 Ti und 3080. Intel müsste mit dem neuen Treiber ca. 30 - 50 % an Leistung herausholen, das ist - nach dem, was da teilweise an Aussagen von Intel selbst kam, ist es unwahrscheinlich, gleichzeitig aber durchaus möglich, dass die A770 Richtung der 6800/3070 Ti bringt. Man wird abwarten müssen, was da kommt.
duskstalker schrieb:
die performancebewertung ist im verhältnis zu meiner 5700XT. meine 5700XT hat ein crash problem - da ist die a770 schon die deutlich angenehmere karte, auch wenn die 5700XT in manchen spielen etwas bessere performance hat.
Also, von dem, was ich bisher gelesen und erfahren habe, war die Erfahrung 5700 XT und A 770 - zum Release - beides durchaus als Katastrophe zu bezeichnen, was Abstürze und Co angeht. Beide Karten sind aber auch im Lauf der Zeit gereift, weil die Treiberteams ihre Shadercompiler, das Fehlermangement und Co immer besser in den Griff bekommen haben und Probleme zu beseitigen.

Du hast aber natürlich recht, Arc heute ist nicht das Arc, was wir vor 6 Monaten gesehen haben. Intel hat richtige Fortschritte gemacht und die Karten sind vom Treiberlevel her jetzt auf einem guten Stand.
borizb schrieb:
Warum Leute meckern, dass nicht ab Launch alles perfekt läuft, verstehe wer will, denn das war noch nie bei irgendeinem Produkt von egal welchem Hersteller so.
Weil die Leute es immer machen und weil viele Menschen absolut keine Fehlertoleranz haben und denken, dass alle anderen immer perfekt zu funktionieren haben, während Sie für sich aber genau diese Fehlertoleranz einfordern. ;)

Viele sind eben, was sowas angeht, überkritisch und vergessen, dass wir Menschen sind und Fehler zu uns gehören und passieren. Klar, es ist unschön, wenn sie passieren, wir sind aber eben nicht perfekt.
borizb schrieb:
Was ist hier der Maßstab fürs Gejammer? AMD? Nvidia? Wieviele Beispiele soll man aufzählen für deren Rohrkrepierer?
Na ja, wenn man sich die AMD-Themen ansieht, dann ist NVIDIA der Maßstab, für Intel ist der Maßstab aktuell AMD. ;) Das Gras bei den anderen Herstellern ist halt immer noch saftiger. ;)
duskstalker schrieb:
neulich hab ich bei meiner 6800XT bei der treiberinstallation zu lange gewartet und windows hat mir während dem radeon setup ne andere treiberversion installiert und das hat mir das komplette windows zerschossen -
... Windows und seine Automatismen... die haben mir den Start der 7900 XTX auch regelrecht vergällt. Erst mal mit DDU den Treiber sauber entfernt, PC aus, Grafikkarte rein und was macht Windows? Zieht mir den Treiber automatisch rein, und zwar den falschen ... der richtige war ja schon auf der Festplatte.
Steini1990 schrieb:
In wie weit sind die wenigen Lanes zu vergessen? Bei einer Karte mit so wenig Leistung macht die Bandbreite doch fast keinen Unterschied.
Das Problem ist, wenn man eine PCIe4.0 Karte in einem PCIe3.0-System betreibt. Es fehlt an Bandbreite, wenn nicht genug VRAM vorhanden ist.
 
  • Gefällt mir
Reaktionen: AtomLord
BTICronox schrieb:
Für unter 300€ wäre die Karte bei 43% Zuwachs schneller als eine 3060 ti - und die kostet über 400€. In Videoencoding wie Handbrake dient die Karte auch gern mal als Beschleuniger und zieht dort sogar mit der 8x so teuren 4090 gleich. Die Daseinsberechtigung ist mehr als gegeben :D
Ja, das mag für DX9 Titel stimmen, laut Intels Aussagen...aber es gibt noch DX10, 11 und 12.

Das darf @CB gerne einmal ausgiebig nachtesten, dann wissen wir mehr.

Genauso wie die Frage des Katastrophalen Verbrauchs. Im Idle sowie beim Gaming. Da ist AMDs "Problem" mit dem erhöhten IDLE/YT Verbrauch ja noch Jammern auf extrem hohen Niveau dagegen. Selbst beim Gaming steht AMD hier mal garnicht so schlecht da wie manche gerne behaupten.

Ob das ganze hier bei Intel funktioniert, wurde auch noch nicht getestet:
https://www.computerbase.de/2022-10/intel-arc-a770-750-380-verbrauch-leerlauf/

Das De- und Encoding ist allerdings hervorragend, da stimme ich zu. Da habe ich auch nie angeprangert.

Daher ist das zwar ein guter Schritt nach vorne, aber wie ich schon geschrieben habe, gibt es noch viel zu tun für Intels Treiberteam.
 
GUN2504 schrieb:
Intel hätte sich mal besser an die gute alte Weisheit "Bauer bleib bei deinen Kartoffeln" gehalten...
und warum genau?
Für wen wär das besser?
WIr hätten keinen 3. Bewerber der die Preise drücken kann
Und Intel würde mit der Strategie langfristig untergehen. Wer sich in einer Zeit, wo der Markt sich verändert nicht selbst verändert geht unter.
Ergänzung ()

Fresh-D schrieb:
@Wolfgang:
Der Link zum Preisvergleich führt zur A750 von Intel. Die Asrock Karte gibt es schon für 279€ zu kaufen. Die Limited-Edition wird noch mit 299€ geführt.

Anhang anzeigen 1319364

Wenn die A750 noch günstiger wird, dann ist sie wirklich das Beste Angebot in dem Preissegment.
Absolut, das ist nämlich genau das, was ich möchte: Gute Karten im Preisbereich von 200-300 Euro.
Freue mich auf die nächsten Gens, vor allem Celestial und hoffentlich Druid (ich erwarte erst ab Druid den Durchbruch)
Ergänzung ()

danyundsahne schrieb:
Genauso wie die Frage des Katastrophalen Verbrauchs. Im Idle sowie beim Gaming. Da ist AMDs "Problem" mit dem erhöhten IDLE/YT Verbrauch ja noch Jammern auf extrem hohen Niveau dagegen. Selbst beim Gaming steht AMD hier mal garnicht so schlecht da wie manche gerne behaupten.
Ich habe das THema nicht mehr verfolgt, aber die 7900XTX hatte einen massiv höheren Verbrauch als Intel bei Release und das obwohl jeder sagte, INtel sei 5-10 Jahre hinter AMD was den Idle-Verbrauch betrifft.
Für ein erstes Produkt ist Arc tatsächlich überraschend konkurrenzfähig. Es ist halt echt schade, dass man nicht zum ursprünglichen Termin released hat, als ein Mangel an GPUs am Markt war und dann wären die Treiber heute auch schon viiiiiel weiter, Battlemage würde wohl auch schon jetzt kommen statt erst in über 1 Jahr
 
Was ist eigentlich aus der Arc 580 oder wie die heißen sollte geworden? War das auch so ein „Unlaunch“?
 
Galaxytourist schrieb:
Wenn das mit dem Idle Stromverbrauch so bleibt, wonach es aktuell aussieht, dann ist die Karte leider nichts für ältere Systeme. rbar support bekommen ja sogar ältere Chipsätze, ASPM leider nicht.
Wie sind den die Idle Werte der Karte?
 
Yar schrieb:
Interessant finde ich ja die Leute, die es toll finden, dass Intel in der GPU Sparte mitmischt und hoffen dadurch, dass die Preise von AMD und NVidia fallen - aber keine GPU von Intel kaufen. Es sollen immer die anderen machen.

Ich kann da nur für mich sprechen, aber das Tempo mit dem Intel an den großen Baustellen der Arc-Karten arbeitet ist sehr lobenswert.

Wenn bei meinem nächsten GPU-Update eine Intel auf dem Markt ist, die in der gehobenen Mittelklasse konkurrieren kann (grob Nv-xx70/AMD-x700), werde ich das Experiment wagen.
 
  • Gefällt mir
Reaktionen: Yar
Yar schrieb:
Interessant finde ich ja die Leute, die es toll finden, dass Intel in der GPU Sparte mitmischt und hoffen dadurch, dass die Preise von AMD und NVidia fallen - aber keine GPU von Intel kaufen. Es sollen immer die anderen machen.

Das Gleiche mit den Meckerern: Mund aufmachen und bashen, aber nicht durch den Kauf der Karten Intels GPU Sparte unterstützen. Es sollen immer die anderen machen.

Meine Karte rennt echt gut, ich kann eigentlich alles zocken, was ich will. Und das sind keine DX9 Games, dafür habe ich einen Retro-Rechner. :)
Naja. Mal ab von den ganzen Technischen Macken, die immernoch da sind, muss Intel aber von der Performance in Verbindung mit dem aufgerufenen Preis auch konkurrenzfähig sein. Und das klappt ja leider nicht wirklich.
 
BAR86 schrieb:
Ich habe das THema nicht mehr verfolgt, aber die 7900XTX hatte einen massiv höheren Verbrauch als Intel bei Release
Der Verbrauch im IDLE/YT war ähnlich katastrophal ja, aber mittlerweile nach 4 Wochen wurde der erste Treiber von AMD released, der das schon massiv verbessert hat.
https://www.computerbase.de/2023-01...leistungsaufnahme_desktop_und_videowiedergabe

Und wie lange ist Arc schon draußen? Wurde hier schon etwas verbessert außer der Intel Tipp, die Systemeinstellungen auf Stromspaßmechanismen einzustellen?
BAR86 schrieb:
und das obwohl jeder sagte, INtel sei 5-10 Jahre hinter AMD was den Idle-Verbrauch betrifft.
Für ein erstes Produkt ist Arc tatsächlich überraschend konkurrenzfähig.
Naja, die ersten Tests waren desaströse. Leistung unterirdisch, Abstürze, Bugs in Games und Treiber, extrem Hoher Verbrauch in IDLE und im Gaming selbst. ->225W für RX6600 Leistung (die hat ca. 130W TGP)

Die hätten sich auch noch 1 Jahr mehr Zeit nehmen müssen. Leider.
BAR86 schrieb:
Es ist halt echt schade, dass man nicht zum ursprünglichen Termin released hat, als ein Mangel an GPUs am Markt war und dann wären die Treiber heute auch schon viiiiiel weiter, Battlemage würde wohl auch schon jetzt kommen statt erst in über 1 Jahr
Aber bei Intel war der Druck genauso groß noch einigermaßen rechtzeitig zu releasen wie bei AMD.
Nur ist AMD tatsächlich noch weit besser aufgestellt und ist Leistungsmäßig wenigstens in allen Bereichen (bis auf RTX4090) Konkurrenzfähig.
AMD hat eig nur mit zu hohem IDLE/Multimonitorbetrieb Probleme.

Den Rest der Dual Issue Problematik, dass hier Treiberarbeit geleistet werden muss, wird sich über die Monate auch noch verbessern und man ist jetzt schon mit 7900XT schneller als 4070ti und die 7900XTX ist flotter als die 4080.

Also ich sehe da bei Intel über längere Zeit noch wesentlich mehr Arbeit vor sich. Verbesserungen in DX9 sind das eine..abe es gibt ja noch etliche DX10, 11 und 12 Games da draußen, die teils noch grottig laufen.
Siehe Dead Space Remake:
https://www.computerbase.de/2023-01...hnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
 
AtomLord schrieb:
Das Problem wurde bereits gelöst. Du musst im Bios unter APM die P-States P5 und P6 aktivieren. Unter Windows dann in den Energiespar Einstellungen unter Intel Grafikadapter und PCI Express auf Maximale Energieeinsparung stellen. Meine 770 zieht im Idle nur noch 8,6 Watt und die Lüfter bleiben stehen. ^^

Weißt du vielleicht wie diese Optionen auf einem Asrock b450 pro4 heißen könnten ? Ich finde nichts ähnliches.

Edit: Ich habe zur Info ein altes AsRock B450 Pro 4 und noch eine ältere BIOS Version drauf, laut Kommentaren in alten Threads, scheint das resizable BAR ab der BIOS Version 5.00 verfügbar zu sein, allerdings habe ich APM nirgends gefunden, bin jetzt aber nicht erfahren in dem Thema. Ich habe nämlich eine rx580 und eine amd 2600x und würde evtl. die Grafikkarte tauschen wollen bei der Gelegenheit.

Hier ist übrigens ein Test mit einer ARC 770 mit Resize BAR on/off und pci 3.0 vs 4.0 .
Beim überfliegen scheint aufzufallen, dass pci 3.0 nur ein paar FPS weniger hat. Sofern das Mainboard kein ReBar supportet ist das schon momentan schon schlecht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BAR86
War doch vorher klar, dass man für jedes einzelne Spiel die Treiber optimieren muss. Machen Nvidia und AMD ja auch nicht anders, nur haben die halt 10 Jahre Vorsprung. Wenn es da ältere DX9 Nieschenspiele gibt, dann werden die wohl eher nicht optimiert als neuere Spiele. Für Newcomer sind die ARC Karten echt gut geeignet. Die gängigen games wie Fortnite, LoL oder Overwatch 2 laufen einwandfrei und wenn man gerne solche Sachen wie Raytracing benutzt, dann ist eine A770 leistungsmäßig vor einer 6750XT und kostet 100€ weniger.
 
danyundsahne schrieb:
Der Verbrauch im IDLE/YT war ähnlich katastrophal ja, aber mittlerweile nach 4 Wochen wurde der erste Treiber von AMD released, der das schon massiv verbessert hat.
https://www.computerbase.de/2023-01...leistungsaufnahme_desktop_und_videowiedergabe

Und wie lange ist Arc schon draußen? Wurde hier schon etwas verbessert außer der Intel Tipp, die Systemeinstellungen auf Stromspaßmechanismen einzustellen?
Jap.
Und: wie lange baut AMD nun Grafikkarten?
Die Leistungswerte haben sich verbessert, sind aber nach wie vor eine absolute KATASTROPHE für eine Firma die seit 30 Jahren GPUs baut.

danyundsahne schrieb:
Naja, die ersten Tests waren desaströse. Leistung unterirdisch, Abstürze, Bugs in Games und Treiber, extrem Hoher Verbrauch in IDLE und im Gaming selbst. ->225W für RX6600 Leistung (die hat ca. 130W TGP)
Was klar war von Anfang an. Eigentlich hat Intel viel besser abgeschnitten als realistisch zu erwarten war.
Allerdings hat sich zumindest auf Treiberseite deutlich was getan, in RT und modernen APIs liegt man deutlich höher als eine 6600
danyundsahne schrieb:
Die hätten sich auch noch 1 Jahr mehr Zeit nehmen müssen. Leider.
Das ist immer, was viele nicht verstehen: Es braucht nunmal beim Henne-Ei Problem, dass irgendetwas released wird ums dann zu verbessern. Im Labor hat man halt ein Limit, und Devs können nicht für etwas optimieren, das nicht am Markt ist.

danyundsahne schrieb:
Aber bei Intel war der Druck genauso groß noch einigermaßen rechtzeitig zu releasen wie bei AMD.
Naja der Druck mag groß gewesen sein, von 2020 ist man aber trotzdem 2 Jahre entfernt ;)
danyundsahne schrieb:
Nur ist AMD tatsächlich noch weit besser aufgestellt und ist Leistungsmäßig wenigstens in allen Bereichen (bis auf RTX4090) Konkurrenzfähig.
AMD hat eig nur mit zu hohem IDLE/Multimonitorbetrieb Probleme.
und der niedrigen RT Performance, der teilweise niedrigen Effizienz.
danyundsahne schrieb:
Den Rest der Dual Issue Problematik, dass hier Treiberarbeit geleistet werden muss, wird sich über die Monate auch noch verbessern und man ist jetzt schon mit 7900XT schneller als 4070ti und die 7900XTX ist flotter als die 4080.
Ja, nur der Gegner ist eigentlich ein anderer gewesen. Und das ganze ist immer noch so: AMD/ATI ist seit 30 Jahren beim Diskret-GPU bauen.
danyundsahne schrieb:
Also ich sehe da bei Intel über längere Zeit noch wesentlich mehr Arbeit vor sich.
Natürlich, man muss ja Jahrzehnte aufholen. Wer glaubt, dass da innerhalb der nächsten 2-3 Jahren "gleichstand" existiert ist halt ein Träumer
danyundsahne schrieb:
Verbesserungen in DX9 sind das eine..abe es gibt ja noch etliche DX10, 11 und 12 Games da draußen, die teils noch grottig laufen.
Siehe Dead Space Remake:
https://www.computerbase.de/2023-01...hnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
Ja, auch das ist zu erwarten gewesen
 
  • Gefällt mir
Reaktionen: danyundsahne
Yar schrieb:
Interessant finde ich ja die Leute, die es toll finden, dass Intel in der GPU Sparte mitmischt und hoffen dadurch, dass die Preise von AMD und NVidia fallen - aber keine GPU von Intel kaufen. Es sollen immer die anderen machen.

Das Gleiche mit den Meckerern: Mund aufmachen und bashen, aber nicht durch den Kauf der Karten Intels GPU Sparte unterstützen. Es sollen immer die anderen machen.

Meine Karte rennt echt gut, ich kann eigentlich alles zocken, was ich will. Und das sind keine DX9 Games, dafür habe ich einen Retro-Rechner. :)
Meine Karte rennt auch gut. Ich beschwer mich aber auch nicht über Preise.

Ich finde es dennoch gut, dass es Konkurrenz gibt. Nicht unbedingt wegen der Preise, sondern weil es ohne Konkurrenz Stagnation gibt. Nichts desto trotz ist mir mein Gaming näher als meine Nächstenliebe zu Intel, weswegen ich mir halt die HW kaufe, die mir am meisten Gegenwert liefert.

Weswegen ich noch nie verstanden habe, wieso man dem Underdog, egal wie er heißt, so viel enthusiastische Begeisterung entgegebringen muss (das geht nicht gegen Dich sondern ist ganz generell gemeint für alle, deren der Firmenname wichtiger als dessen Produkte ist).
 
Habe gerade mal upgedated von 4032 :freak: auf 4091.
Endlich ist das Overlay Gedöns weg, das war ja nervig. Schön, aber unpraktisch.
Eigentlich macht der Treiber jetzt einen erwachsenen Eindruck, Afterburner bräuchte ich jetzt nicht mehr.
Fehler in Games habe ich noch nicht gesehen, ich teste aber den Abend durch.
 
  • Gefällt mir
Reaktionen: Atlan2101, olligo und Eclipse1991
Zurück
Oben