News Intel Arc A770: Acer will mit ungewöhnlicher „Predator BiFrost“ mitmischen

  • Gefällt mir
Reaktionen: NMA
GameOC schrieb:
Tue dir das bitte nicht an. Die Treiber sind und werden grottig bleiben. Abseits vom Mainstream wirst du massive Probleme bekommen…
Danke für deinen Ratschlag. 🙂

Ich hab mir das schon genau überlegt und denk ich weiß worauf ich mich einlasse.

Meine „Hoch Gaming Phase“ ist vorbei.
Solange die Performance samt Treiber für die paar Titel die ich noch ab und an zocke ausreicht genügt mir das.
Freu mich eher schon nach Updates jeweils neu zu benchen und die Grafikqualität zu vergleichen.

Auf jeden Fall warte ich aber erstmal die ersten Tests ab und was AMD letztlich noch vorstellt.
 
  • Gefällt mir
Reaktionen: DagdaMor, TechFunk, Zik0815 und 3 andere
@Neodar Test der A730M gelesen? Gab exakt einen Absturz während des Tests. Ohne die Abstürze hat man am Ende mit der A770 eine Karte, die im Durchschnitt irgendwo auf 3060 Niveau ist, in DX12 Games meist deutlich besser. Ich denke mittlerweile kann man so ein Ding ausprobieren, wenn man möchte.
 
  • Gefällt mir
Reaktionen: DagdaMor, Knaecketoast, Steini1990 und 3 andere
  • Gefällt mir
Reaktionen: NMA, koech, Tomsenq und 4 andere
catch 22 schrieb:
wäre auf jeden Fall einen konkreten Blick (Test) wert, um zu ermitteln, wie sich das Konzept schlägt.
Vor allen Dingen braucht es dafür auch eine gute Testmethodik. Der Vergleich von DirectHeatExhaust mit Hitzeverwirblung (gibt es für das Gegenteil irgendeinen etablierten Begriff) ist nicht trivial: Testet man in einem engen Gehäuse mit gleichzeitig schwacher sonstiger Belüftung, dann ist DHE selbst bei mittelmäßigen Umsetzungen meilenweit überlegen; ist das Gehäuse groß und toll belüftet, dann sieht das schon anders aus.
 
  • Gefällt mir
Reaktionen: NMA, Sturmflut92, simosh und eine weitere Person
Gefällt mir ganz gut, auch optisch.

Aber stelle ich mir irgendwann kritisch für AMD vor, wenn da ein Big Player mit dermaßen viel "Kohle" in den GPU Markt einsteigt, und vielleicht später auch stärkere Modelle bringt.

An sich aber keine schlechte Sache, auch wenn Intel jetzt nicht so super sympathisch ist. :)
 
Neodar schrieb:
Schon interessant, wieviele User hier sich tatsächlich dazu hinreißen lassen würden, sich als Betatester zu verdingen.
Nach allem was man bisher über den Zustand der Treiber lesen konnte, würde ich ums Verrecken keine solche Karte kaufen.

Vermutlich weil es durchaus User gibt die technisch interessanten Ansätzen durchaus bereit sind eine Chance zu geben. Da ich keine "Hardcorezocker" mehr bin, zähle ich mich auch zu diesen Leuten. Allerdings gibt es bei mir keinerlei Veranlassung eine neue Grafikkarte anzuschaffen. Bezüglich der Treiber traue ich persönlich Intel schon zu da entsprechend weiterhin am Ball zu bleiben und die Treiber zu verbessern. Mein erstes Laptop hatte ebenfalls einen Intel "Grafikchip" :D , es war durchaus erstaunlich was tatsächlich alles ruckelfrei mit hohen Details lief (Freelancer ist mir da nachhaltig in Erinnerung geblieben).

Davon mal ab: Evtl. bist du zu jung dafür (nicht böse gemeint!), aber wenn ich mir das Treibermenü von nV ansehe, frage ich mich schon länger warum man sich diese Frechheit eigentlich freiwillig antut. Dank einem Ausflug zur Vega 64 kann ich direkt vergleichen: Das Treibermenü von nV ist lahmarschig, hässlich (angeblich ist Optik doch heute so wichtig?) und unübersichtlich. Es sieht seit meiner ersten nV Karte quasi gleich aus (TNT 2 M64). Vergleich dagegen mal das Menü von AMD. Die letzte AMD Karte vor der Vega war eine X850Pro und die Treiber waren damals unterirdisch, deswegen kam die Karte auch wieder weg. Über den gesamten Zeitraum mit der Vega war ich hingegen eigentlich sehr zufrieden (paar kleine Probleme, aber wo gibs die nicht?). Was ich damit sagen will: Irgendeine Kröte wird man immer schlucken müssen und Konkurrenz belebt das Geschäft. Anzunehmen das eine Firma wie Intel hier nicht in der Lage ist aufzuholen, halte ich zum jetzigen Zeitpunkt für vermessen.
 
  • Gefällt mir
Reaktionen: NMA, Leereiyuu, Balisontrop und 4 andere
Schmarall schrieb:
BiFrost weil es zum einen um eine mystische Brücke geht, zum anderen weil "Bi" die Vorsilbe für 2 ist und zuletzt eben Frost weil Kühlung. Und dann eben Doppelkühlung und Brückenschlag zwischen 2 Kühlsystemen.

Das wäre Bifröst und nicht Bifrost
 
  • Gefällt mir
Reaktionen: joshim
Schmarall schrieb:
Gäbe dann vermutlich Theater wegen Namensrechten. Darum diese Annäherung. Weiß ja trotzdem jeder.

Wenn Intel Bifröst nemen würde, kommt dann Heimdall und haut den Intel-Leuten eins vor den Latz?
 
  • Gefällt mir
Reaktionen: ZeusTheGod und edenjung
Vielleicht geht es mit den Preisen, zumindest in der Kategorie, nach unten.
 
  • Gefällt mir
Reaktionen: simosh
Ayo34 schrieb:
Wäre schon geil, wenn man bei Nvidia für 20$ mehr auch 8GB mehr RAM bekommen würde.
Ja das gilt leider nur für die Limited Edition. Es ist schon ein wenig ein Nachteil fur Acer. Aber wer weiß, vllt reduziert das Design zu ähnlichen Kühlleistung und Lautstärke den Preis ? Sprich das beste aus beiden Welten?

Ansonsten Arc hin oder her, aber das schlichte Design der Arc empfinde ich schon gut. Also mit 16 GB und zu einem Euro Preis nahe dem UVP durchaus ein spannendes Produkt. Was Treiber angeht. Persönlich spiele ich wenn dann eher. neuere Games die hoffentlich alle dx12 haben...
Was halt bei den Test interessant sein wird. Wie sieht es mit RT und Verbrauch aus. Und ja, mit den neueren Karten der Konkurrenz wird man sich messen müssen. Seitens AMD dann vllt sogar ein direkter Vergleich, da beide in 6nm tsmc ;)

Ps: aktuell habe ich eine 5700 also wäre das dann wohl ein sidegrade. Muss aber sagen, man kann alles damit spielen. Anderseits, ich habe damals eig knapp 300 gezahlt...

An sich wäre auch so ein Vergleich Test mit RDNA1 und RDNA2 und NV Generationen mit Arc interessant. Allg spannend wie sich die großen drei von ihren Ideen unterscheiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und Chismon
Worauf ich mich freue sofern es alles gut geht, das es in zukunft dann hoffentlich mal reine AMD und reine Intel systeme geben wird. Auch damit man nvidia mal wieder auf den boden der tatsachen zurückholt. Aber das wird wohl noch einige generationen dauern. Ich hoffe nur das Intel diesesmal am ball bleibt.
Was mir aber bis heute nicht in den sinn geht, was der ganze schwachfug bezüglich "limitiert" soll. Intel wäre doch erstmal gut daran beraten die Karten in den umlauf zu bringen, daraufhin kann man dann den treiber noch weiter ausbauen da je mehr karten im umlauf sind und mehr fehler/inkompatibilitäten zu spielen ans licht kommen.
Für mich wäre in erster linie wichtig wie sich die ARC karten in VR schlagen. Gut find ich das Intel 16GB karten anbietet aber wie es aussieht bekommen Boardpartner nur die 8GB varianten -.-
 
  • Gefällt mir
Reaktionen: Mcr-King und SSD960
Wieso kommt eigentlich kein Hersteller auf die Idee statt "Elite G4ming Overclokcked 3dition" mal ne "Undervoltet Efficiency Edition" rauszubringen ? Und dann Spannung/Takt Werksseitig so einstellen dass die geringfügig niedriger taktet aber viel dichter am Sweetspot ist und massiv weniger verbraucht.
So Karten könnte man sogar als Effizienzwunder bewerben und gleichzeitig würden die bei Reviews dann als Übertaktungswunder gefeiert werden.
 
  • Gefällt mir
Reaktionen: Matthauser, Sturmflut92, Aquilid und 3 andere
Sunweb schrieb:
20€ mehr für doppelten VRam schlägt doch niemand aus.
Es ist doch offensichtlich, dass es nur sehr begrenzt 16GB Modelle einer A770 Limited Edition geben wird.

Somit dürften die Leute froh sein, wenn sie zum Marktstart überhaupt eine A770 Grafikkarte (also auch mit "nur" 8GB) zu diesen Preisen ergattern können, denn diese könnten für einige auch zum Sammlerobjekt werden (was einen Preisanstieg deutlich über den MSRP/UVP bedingen dürfte).
Ergänzung ()

Ayo34 schrieb:
geil, wenn man bei Nvidia für 20$ mehr auch 8GB mehr RAM bekommen würde.
Vorher würde sicherlich die Hölle zufrieren als dass nVidia/Jen-Hsun so etwas jemals machen würde :D ;).
Ergänzung ()

pipip schrieb:
das schlichte Design der Arc empfinde ich schon gut.
Das sehe ich ähnlich positiv, wobei AMD/RTG ja auch noch etwas passendes bei RDNA3 (vermutlich aber zu eher unanständigen Preisen) in Sachen Referenzmodelldesign bieten könnte, schicke Fanprojekte/-anregungen gibt es ja schon ;).

JayzTwoCents war beim Unboxing der Intel ARC Karten auch ganz begeistert vom Aussehen des Referenzdesigns:

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King, pipip und SSD960
wern001 schrieb:
Das wäre Bifröst und nicht Bifrost

Nicht im Englischen (was normalerweise die Sprache der Namensgebung für GPUs ist).
Da stimmt Bifrost.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Man findet auch schon die ersten Tests bei Youtube. Sieht gar nicht mal so schlecht aus wenn die Treiber denn funktionieren. Bin gespannt auf die Tests der Hardware Seiten.

 
  • Gefällt mir
Reaktionen: Mcr-King
wern001 schrieb:
Wenn Intel Bifröst nemen würde, kommt dann Heimdall und haut den Intel-Leuten eins vor den Latz?
Glaub´ nicht; die schicken wen Anderes.
Heimdall muss doch die Brücke bewachen :daumen:
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben