Test Arc B580 12 GB vs. RTX 4060 8 GB: Leistungsunterschiede mit und ohne Unreal-Engine-Spiele

kachiri schrieb:
Was wäre hier den Ziel- und Kaufgruppenorientiert? Fortnite? CS? Valorant? LoL?

Ganz genau diese und viele andere (hatte ich vorher ja schon angeschnitten, eben vorrangig an Nutzerzahlen orientierte eSports und Live Service Spiele), denn die sind die Zielgruppe für die Karte und nicht Black Myth Wukong oder Mechwarrior 5 : Clans Spieler.

kachiri schrieb:
Fact: Andere Tester haben diese Spiele im Parcours und hier stellt sich häufig heraus, dass die B580 gleiche Leistung wie die 4060 und 7600 liefert.

Einige davon, aber mit Sicherheit haben sie nicht alle die Spiele des CB Testparcours und auf diesen Einstellungen getestet und komischer Weise sind andere Tester dann in der Mehrheit zu einem anderen, weniger kritischen Schluss gekommen, dass eine Arc B580 durchaus lohnend/empfehlenswert/besser sein kann im Vergleich zu einer RTX 4060 oder RX 7600 bspw.

Für mich bleibt der PCGH Test vorbildlich/führend und die waren schon zu Arc Alchemist Zeiten diejenigen mit den besten/glaubwürdigsten Intel GPU Tests im deutschsprachigen Raum und daran hat sich leider nichts geändert.

Nun kann man auf seiner Sicht-/Testweise beharren oder sich evt. mehr anpassen, viele Wege führen nach Rom und man muss und kann vermutlich, wie erwähnt, nicht jeden dabei mitnehmen.
 
blackiwid schrieb:
Ja das aber nur ne Preisfrage und der B580 ist halt fast so groß wie der Chip von ner 4070.
Und das interessiert den Kunden inwiefern? Dafür dass der Chip so schlecht ist, haust du ja wieder reichlich komische Argumente raus.

Egal, wo die Redaktion definitiv richtig liegt ist die Relevanz der UE5 Engine. Gerade wechseln sehr viele Entwickler auf diese Engine, da sie einfach mit Abstand die beste ist.
Wahrscheinlich kommen bald 50% der Spiele mit der UE5.
 
Chismon schrieb:
und komischer Weise sind andere Tester dann in der Mehrheit zu einem anderen, weniger kritischen Schluss gekommen, dass eine Arc B580 durchaus lohnend/empfehlenswert/besser sein kann im Vergleich zu einer RTX 4060 oder RX 7600 bspw.
Na ja... Die B580 liefert Leistung wie eine 7600 und 4060 zu etwa dem selben Preis. Mal mehr, mal weniger, bei den Frametimes immer mal wieder mit Problemen. So wirklich empfehlenswert ist halt eigentlich keine von den Karten. Das ist ja defacto auch das Fazit. Weder die RX 7600, noch die RTX 4060 noch die B580 sind wirklich uneingeschränkt zu empfehlen und diverse Punkte sprechen dann tendenziell für die Karten von AMD und NV, weil man eigentlich durchgehend weiß, was man erwarten kann. Bei der Intel-Karte hängt immer so ein "kann auch mal ein Totalausfall werden"-Schwank mit und eben die Schwäche bei UE5...
 
  • Gefällt mir
Reaktionen: danyundsahne
kachiri schrieb:
Aber dann bei den Min. FPS dann häufig krankt.
Die Karte ist gerade erst auf dem Markt und von einigen wurde noch angefüührt, dass da noch einiges an Treiberpotential auch bei Intels Arc Battlemage schlummert.
 
Ist für mich eine Ausrede und es gibt ja auch keine Garantie, dass sich das treiberseitig fixen lässt oder tatsächlich gefixt wird. Ich kaufe doch nicht in der Hoffnung, dass es besser wird. Dann gebe ich gleich viel direkt für eine Karte aus, von der ich weiß, dass es funktioniert. Und in eSport-Titeln ist 8 vs 12 GB doch absolut nicht relevant...
Wenn man also Käufer- und Zielgruppenorientiert bewertet: Aká eSports, dann würde man wohl einfach NV empfehlen und da macht man dann auch einfach nichts falsch. Das Fazit wäre also nicht besser.

Ich finde das Fazit anderer Hardwareseiten persönlich tatsächlich ZU positiv. Es ist ein Schritt nach vorne und es ist ein solides Produkt. Aber eben nicht mehr.
 
kachiri schrieb:
Weder die RX 7600, noch die RTX 4060 noch die B580 sind wirklich uneingeschränkt zu empfehlen

Welche Grafikkarte ist denn uneingeschränkt empfehlenswert, nenne mir bitte eine?

Genau, es gibt keine, weil es vom Nutzerpropfil abhängig ist; dem einen verbraucht eine Karte zu viel, dem anderen fehlt ein Feature, wieder einem anderen ist die Karte viel zu teuer angesetzt, usw.

Kompromisse geht man immer irgendwie ein bei Grafikkarten und den meisten anderen Produkten.

kachiri schrieb:
Bei der Intel-Karte hängt immer so ein "kann auch mal ein Totalausfall werden"-Schwank mit und eben die Schwäche bei UE5...

Das hätte ich bei Arc Alchemist vielleicht noch gelten lassen, aber die meisten Test haben Intel bzgl. der relativen Stabilität ziemlich gelobt bei Arc B580 und evt. wird das noch weiter verbessert werden in den kommenden Monaten wie beim Vorgänger, denn es ist ja noch Potential da, siehe auch Gamers Nexus Test:

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GOOFY71
Ich habe das glaube auch schon bei Alchemist gesagt: Ich kaufe mir kein Produkt, dass "eventuell" besser wird und ich empfehle doch auch kein Produkt, von dem ich weiß, dass es aktuell durchaus gewisse Schwächen hat.
Objektiv spricht aktuell halt maximal die VRAM-Ausstattung für die B580 (im Vergleich zur 4060 und 7600). Wenn man dann aber eben wieder, wie du es dir wünscht, zielgruppenorientierte Überlegungen anstrebt, ist das eigentlich auch wieder nicht mehr relevant.
 
@Jan
In der Tabelle "Die genutzten Spiele und die Grafikdetails" im Artikel fehlt ein Spiel. Aktuell stehen da nur 20 Titel drin. Empire of the Ants taucht da nicht auf.

//edit
Außerdem fehlt im Header der Tabelle das k am Ende von Benchmark :)
 
kachiri schrieb:
Ich kaufe doch nicht in der Hoffnung, dass es besser wird.
Die Karte ist von den meisten Testern schon zum Start (im Gegensatz zu Arc Alchemist) als durchaus gelungen angesehen worden, das magst Du alleine nicht teilen, aber ich denke ich Mehrheit (insbesondere in den Schlüsselmärkten USA und China) dürfte das wohl anders sehen und wird sich damit arrangieren und einen Kauf in Betracht ziehen.

Dir sind die anderen Tests zu positiv und nicht miesepeterisch/abgehoben genug (evt. auch wieder eine Mentalitätsfrage); tja, Pech gehabt, für mich und viele andere sind die Tests besser/glaubwürdiger, so unterschiedlich kann man das sehen.

kachiri schrieb:
Aká eSports, dann würde man wohl einfach NV empfehlen und da macht man dann auch einfach nichts falsch.
Doch, man bezahlt viel zu viel für eine Chip-Resterampekarte von nVidia, wenn man gleiches oder ausreichend viel Leistung für die jeweiligen Spiele auch mit einer Intel oder AMD dGPU bekommen kann; nVidia ist in dem Bereich leider nur noch für Unwissende und Markenheinis eine Option.
 
Zuletzt bearbeitet:
Computerbase hat einen älteren Treiber für Battlemage verwendet als die meisten anderen Tester. Ob das die Unterschiede erklärt weiß ich nicht, ausschließen lässt sich das nicht ohne Gegenvergleich. Die Unreal Ergebnisse verwundern etwas, wo doch Battlemage explizit Verbesserungen für die Unreal Engine erwähnt hat. Aufgrund vom Hardware Support für Execute Indirect beispielsweise.
 
MarcBomber schrieb:
Gibt es eigentlich keine großen Games auf Basis von Unity Engine?

Was ist groß?

7 days to die läuft auf Unity, 18 Millionen verkauft und seit Jahren immer wieder in den Top50 most played games auf Steam zu finden.

@MC´s Warum will man keine Konkurrenz im GPU Markt haben als Endverbraucher? Im Lotto gewonnen und Preise spielen keine Rolle mehr?
 
  • Gefällt mir
Reaktionen: Three of Nine und cbmik
Chismon schrieb:
Und die CB Community ist wichtiger als die gesamte Leserschaft bei CB, die sicherlich ganz anders aufgestellt (siehe Steam Umfrage) als die enthusiastische Blase bei CB?

Ja, kann man machen, aber dann muss man sich nicht wundern, wenn einige deswegen abwandern, weil man eine verzerrte Marktrealität darstellt.
Wir sehen hier keinerlei Metriken, ganz gleich in welcher Form, die vermuten lassen, dass die CB-Leser mehr Interesse an Einsteiger-Grafikkarten als an Mittelklasse- und High-End-Produkten haben. Ganz gleich ob Produkt-Tests, Umfragen, Spiele-Tests, Forum, alles deutet darauf hin, dass das Interesse an Einsteiger-Produkten auf CB geringer ist als das der teureren Hardware.
Pepsi.Cola schrieb:
Indiana Jones ist aber auch für viele PC-Spieler deshalb interessant, weil dieses Spiel nicht für die PS5 rausgekommen ist und gleichzeitig die XBox in Deutschland nicht sonderlich populär ist.
In dem speziellen Fall kann ich mir vorstellen, dass da auch einige Leute euren Test angeschaut haben, um zu prüfen, ob ihre "alte Möhre" dieses Spiel verkraftet.

Dennoch, würde ich eine neue GPU benötigen und würde mich über die Performance der "300 €-Klasse" informieren wollen, müsste ich auf andere Quellen zurückgreifen, weil mir eben die Performance der "MP-Games" wichtig wäre und dies in der Vergangenheit keine Stärke von Intel war.
Ich kann dir auch zig andere Spiele-Tests nennen, die besser gegangen sind als die Casual-Reihe. Beinahe jeder Spiele-Test ist es. Die Zugriffszahlen von CS2, Fortnite und co. waren durchweg ziemlich bis komplett enttäuschend. Der ComputerBase-Leser interessiert sich nicht sonderlich dafür. Natürlich gibt es da Ausnahmen. Das ist aber eben klar die Minderheit.
Chismon schrieb:
Genau, und deswegen ist m.E. ein Umdenken hier gefragt, denn nur der jetzige B580 Test ist eben nicht ziel-/kauf(gruppen)gerichtet sondern alles wird über den gleichen Kamm geschoren, aber mit zweifelhafter Aussagekraft (wegen der Parcourszusammenstellung und den gewählten Einstellungen).

Getrennte Parcours mit Schnittmenge wären hier die Lösung, auch wenn das mehr Arbeit (anfänglich) machen dürfte; ansonsten schaut man wohl eher in Tests anderer vorbei die einen Parcours haben, der dem Produkt auch angemessen und aussagekäftig genug ist und nicht für höhere Leistungsklassen (die man sich dann schon teilweise sparen kann).
Ich habe in meinen anderen Posts erklärt, warum es sich für uns nicht lohnt, irgend etwas separat für Einsteiger-GPUs aufzubauen und dann andere Tests deswegen simpler zu gestalten. Auch ein Parcours mit Schnittmenge lohnt sich nicht.
AffenJack schrieb:
Du widersprichst dir selbst, denn dann müsstest du genauso bei 1440P mit Upscaling testen, da habt ihr aber Upscaling oftmals entfernt.

1080P mit Upscaling und 1440p ohne ist maximal Realitätsfern. Bei 1080P würde der Nutzer am ehesten Upscaling ausschalten und bei 1440p am ehesten zuschalten.
Daran siehst du, dass der Parcours nicht für Einsteiger-Grafikkarten, sondern für Mittelklasse- und High-End-Produkte konzipiert ist. Derselbe Testparcours muss auch auf RX 8800 XT, RTX 5070, RTX 5080 und RTX 5090 funktionieren. Entsprechend sind die Auflösungen WQHD, UWQHD und Ultra HD konzipiert. Für Einsteiger-GPUs wie die B580 ist Full HD gedacht. In WQHD nehme ich diese mit, weil das die neue Basis-Auflösung ist, wo alle Grafikkarten enthalten sind.
mkl1 schrieb:
Computerbase hat einen älteren Treiber für Battlemage verwendet als die meisten anderen Tester. Ob das die Unterschiede erklärt weiß ich nicht, ausschließen lässt sich das nicht ohne Gegenvergleich. Die Unreal Ergebnisse verwundern etwas, wo doch Battlemage explizit Verbesserungen für die Unreal Engine erwähnt hat. Aufgrund vom Hardware Support für Execute Indirect beispielsweise.
Die Treiber 6249, 6251 und 6252 sind bis auf explizit von Intel genannte Fölle identisch und ändern nichts an der Performance. Sämtliche Benchmarks wurden zuerst mit dem 6251 erstellt. Intel hat dann Release Notes für den 6251 heraus gegeben, und hat explizit erwähnt, dass nur das geändert worden ist, was in den Release Notes steht. Die entsprechend bei uns betroffenen Spiele haben wir dann mit dem 6251 erneuert. Der 6252 wieder macht nur eine Optimierung vom 6251 in F1 24 rückgängig, die XeSS 2 FG mit Raytracing kaputt gemacht hat.
 
Wolfgang schrieb:
Ganz gleich ob Produkt-Tests, Umfragen, Spiele-Tests, Forum, alles deutet darauf hin, dass das Interesse an Einsteiger-Produkten auf CB geringer ist als das der teureren Hardware.
Wolfgang schrieb:
Auch ein Parcours mit Schnittmenge lohnt sich nicht.
Gut, dann lasst es sein, wenn sich das für Euch nicht lohnt, es gibt ja wie erwähnt noch Alternativen für die Leser, die das mehr interessiert als teurere Hardware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor
DevPandi schrieb:
gleichzeitig erreicht die B580 in 1440p aber in kaum einem Spiel wirklich zuverlässig 60 fps und ordent sich eher bei 30 - 40 und in zu vielen modernen Titeln auch unterhalb der 30 fps-Marke.

Hier müssen also für spielbare Frames entweder auf Upsampleing zurück gegriffen werden oder die Effekte massiv reduziert werden.
Ich weiß ja nicht, was ihr für persönliche Anforderungen habt, bzw. was ihr für Euch selbst als spielbar bezeichnet. Ich bin jemand, der schon seit Jahren immer nur die günstigen Karten kaufen kann. Ich kam von einer 960 GTX und bin derzeit auf eine RTX 3060. Mein Anspruch kann immer nur FHD sein und selbst da kann ich nicht immer alles auf Max spielen. Lieber habe ich einige Grafikeinstellungen eine Stufe heruntergestellt, als DLSS oder FSR zu aktivieren. Gerade bei 1080p sieht es viel zu vermatscht aus, auch bei "Qualität". Ob es bei 1440p schon besser ist, kann ich mangels passender Hardware nicht beurteilen. Also stelle ich auf jeden Fall lieber ein paar Grafikoptionen herunter, um stabile 60fps zu erreichen, als Upscaling zu verwenden. Eine fundierte Kaufentscheidung zu treffen hilft mir nicht, wenn ich dann nur Benchmarks mit Upscaling Settings sehe, ich brauche native Rendering Benchmarks, auch wenn die unter die 60fps fallen, dann weiß ich aber ob ich es mit reduzierten Einstellungen noch spielen kann, oder nicht.
Und die im Zitat erwähnten eher 30-40 fps, teils sogar darunter kann ich überhaupt nicht nachvollziehen.
z.B. Gamersnexus hat da viele Spiele die selbst bei 1440p locker über 60 bis hin zu 80+ fps kommen und bei 1080p sind manche sogar über 100fps.
FFXIV (Maximum), 1440p 86fps, 1080p 123fps
Resident Evil 4 (Prioritize Graphics), 1440p 85fps, 1080p 128fps
Baldur’s Gate 3 (Ultra), 1440p 74fps, 1080p missing
Cyberpunk: Phantom Liberty (Ultra), 1440p 53fps, 1080p 79fps

Als wenn die B580 selbst Cyberpunk: Phantom Liberty auf Ultra 79 fps in FHD schafft, was redet ihr dann von keine stebilen 60fps in vielen Titeln?
Da stimmt irgendwas mit Eurem Testsetup nicht.


Wolfgang schrieb:
Es wurde ein frisches Windows in der sicht verwendet, dass dieses erst wenige Wochen alt ist (wenn auch schon viele Grafikkarten mitgemacht hat). Das hat auf die Performance aber erfahrungsgemäß auch keinerlei Auswirkungen.
Ah! ok, dann ist Euer Test doch für die Tonne.
Das Gleiche ist Roman "der8auer" passiert. Er hat auch wesentlich niedrigere Werte in seinen Benchmarks erhalten und er hat wenigstens offen gesagt, dass er bei Intel nachgefragt hat und sie haben ihm gesagt, er muss zwingend ein ganz frische aufgesetztes Windows nutzen, um wirklich vergleichbare Ergebnisse zu erhalten.
Also ein Windows, wo schon etliche andere Grafikkarten und Treiber installiert waren ist nicht zu gebrauchen.
Danke, Micdrop.
 
  • Gefällt mir
Reaktionen: Three of Nine, Gullveig, Horst_Koehler und 3 andere
Alles schön und gut trotzdem würde ich nicht auf ein unbekanntes Pferd setzten. Bei Nvidia und AMD fühle ich mich sicherer.👍
 
  • Gefällt mir
Reaktionen: blauescabrio
Andy_K schrieb:
sie haben ihm gesagt, er muss zwingend ein ganz frische aufgesetztes Windows nutzen, um wirklich vergleichbare Ergebnisse zu erhalten.
Dann ist doch wohl eher ihr Treiber bzw ihre Karte für die Tonne? Ich nutze zwar die Tests als grobe Orientierung, aber ich werde doch kein System neu aufsetzen wegen einer Karte, die nur dann optimal funktioniert?
 
  • Gefällt mir
Reaktionen: blauescabrio und bensen
DevPandi schrieb:
Der Sachverhalt ist an der Stelle etwas komplizierter mit den Texturen.

Deine Aussage "was dann in höheren Framerates resultiert" ist an der Stelle erst mal nicht richtig. Texturen haben heute eigentlich keine Auswirkung mehr auf die FPS, außer es tritt ein Fall ein: der VRAM reicht nicht aus. solange die Karte genug VRAM hat, ist der Impact durch höheraufgelöste Texturen quasi 0.

da muss ich wiedersprechen. die texturauflösung hat sehr wohl einen einfluss auf die leistung, denn eine textur ist eben nicht nur die albedo/diffuse map, die tatsächlich quasi keine leistung kostet. eine komplette "textur" beinhaltet auch einige shader maps, die mit ihrer auflösung + inhalt direkten einfluss auf die shaderlast haben.

üblicherweise bestehen texturen bei modernen spielen aus einer albedo/diffuse map, einer normal map, specularity+roughness maps und ggf. enginespezifischen maps wie bspw. phong bei source.

wenn die texturauflösung reduziert wird, bspw. der fallback auf eine sehr geringe auflösung passiert, gilt das ebenso für die shadermaps, was dann tatsächlich die grafiklast reduziert.

DevPandi schrieb:
Es kommt auf die gewählten Einstellungen, aber auch auf die ausgewählten Testszenen an. Ansonsten: Die B580 mag in 1440p "weniger" Leistung verlieren, als eine RTX 4060 oder die RX 7600, gleichzeitig erreicht die B580 in 1440p aber in kaum einem Spiel wirklich zuverlässig 60 fps und ordent sich eher bei 30 - 40 und in zu vielen modernen Titeln auch unterhalb der 30 fps-Marke.

da kann man sich jetzt fragen, obs tatsächlich an der grafikkarte oder vielleicht nicht doch eher an den spielen liegt.

die meisten UE5 spiele sind lizenzblender ohne wirklichen inhalt, schnell zusammengerotzt, damit die investoren und CEOs einen schnellen turnaround haben. die unreal engine ist nur so populär, weil man alle möglichen gekauften stock-assets einfach in das ding reinprügeln kann und dank nanite usw. kommt auf der anderen seite halt automatisiert irgendwas spielbares raus - das spart massiv geld bei der asset-erstellung und optimierung. 99% aller UE5 spiele sind performancetechnisch, gemessen an ihrer optik, eine absolute katastrophe - stuttering usw. mit eingeschlossen. eben weil einfach nicht mehr optimiert wird.

in der AAA spielebranche gehts nur noch darum möglichst schnell irgendwas rauszuhauen, das in trailern gut aussieht, damit die leute kräftig preordern, dann schiebt man 1-2 patches nach um heftigsten brände zu löschen und fängt dann mit dem nachfolger an.

einige spiele, die hier im parcours sind, sind von den spielerzahlen her völlig irrelevant. mechwarrior liegt bei ca 300 spielern, lego adventures bei unter 50, outcast unter 100, senua unter 200, silent hill unter 2000, frostpunk unter 2000.

counterstrike 2 hat eine spielerschaft, je nach tageszeit, zwischen 600.000 und 1,5 millionen. damit ist die source engine unzählige male relevanter als der nächste unreal rohrkrepierer.

wieviele unreal engine lizenzgurken, die 5 tage nach release schon bei 3 stelligen spielerzahl ankommen, muss man zusammenfassen, damit man auch nur annährend an die relevanz von bspw. cs2 herankommt? und fortnite ist ebenfalls nicht im parcours, als einer der wenigen tatsächlich relevanten titel.

das geschäftsmodell mit diesen AAA dingern basiert nur darauf, fans der marke mit leeren versprechen einen preorder aus den rippen zu leiern und dann hofft man, dass das spiel nach release nicht refunded wird. mehr können die spiele doch nicht.

und anhand solcher umstände kommt man, provokativ formuliert, dann zum ergebnis: die b580 reicht in fhd+upscaling gerade so für 30 fps und ist prinzipbedingt abfall, kauft lieber eine 4090, damit ihr die spiele, die sowieso niemand spielen will, in wqhd + upsampling mit wenigstens 60 fps spielen könnt, bevor ihr das ding inhaltsbedingt am 2. tag wieder refunded.

mit einer b580 kann man wunderbar einige tolle spiele in 1440p oder 4k spielen, die es auch wert sind gespielt zu werden - um mal was herauszukramen: resident evil 2 remake - aktuell 2000 spieler, obwohl das ein singleplayerspiel aus 2019 ist - um welten relevanter als einige unreal engine spiele im CB parcours.

oder: witzigerweise cyberpunk 2077 - 20.000 - 40.000 spieler - ist auch nicht im CB parcours.

ich verstehe schon die technische motivation dahinter hauptsächlich unreal engine + upscaling zu benchen, aber mich lässt der gedanke nicht los, dass hier an der realität am heimischen spielerechner vorbeigebencht wird.
 
  • Gefällt mir
Reaktionen: Corpus Delicti, Three of Nine, Gullveig und 3 andere
Northstar2710 schrieb:
AMD treiber statt mesa nehmen würdest
Warum um allen in der Welt außer um irgendwie Intel künstlich besser da stehen zu lassen, sollte man das machen?

Zu den Stromsparsachen, erstens ist das nicht default, weil solche Settings bei manchen Leuten immer Instabilitäten verursachen, das müssen nicht viele sein, aber wenns 0,1% sind dann sind das eben ne Menge Leute die Kosten verursachen bei den OEMs die sich ärgern vielleicht bei den OEMs nimmer einkaufen etc.

Das Setting hat eigentlich mehr Relevanz für Notebooks, da AMD und Nvidia auch ohne das Setting Stromsparend ist, brauchts das nur für Intel, vielleicht kann man noch 1-2W bei den anderen sparen das weiß ich nicht aber es ist auf jeden Fall vernachlässigbar.

Bei Notebooks hast auch immer die selbe konfiguration daher weiß man das die Combi damit reibungslos funktioniert, bei Selbstbaupcs musst immer von 1000 verschiedenen Kombinationen aus gehen, die kann man nicht alle testen.

Generell muss man mal sagen das OEMs teils grottig schlechte Bios Support an bieten, z.B. benutze ich hier auf meinem Asrock Deskmini ein Bios das irgendjemand mal per email anfrage bekommen hat, warum weil die offiziellen unter Linux kein Suspend erlauben, rede von meinem X300.

Davor hatte ich ein A300 wo ich erst nen Ryzen 5700g gekauft habe, da es ja weiterhin AM4 ist, war für mich selbstverständlich das der da rein passt, Pustekuchen. Letzteres kann man noch auf Geldmacherei oder Unfähigkeit schieben, aber ersteres ist ne Frechheit.

Mein Punkt ist, OEMs haben kein Bock auf Serviceanfragen von solchen Features die sie genau 0 testen.
 
Zurück
Oben