Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsArc A770, A750 und A380: Intel findet Lösung für den hohen Verbrauch im Leerlauf
Auch die Redaktion von ComputerBase hatte den vergleichsweise hohen Verbrauch der drei Desktop-Grafikkarten Intel Arc A770 und A750 (Test) sowie Intel Arc A380 (Test) im Leerlauf kritisiert, jetzt präsentiert der Hersteller eine Lösung. Zuvor hatte sich die Alchemist-Generation bis zu 40 Watt und mehr auf dem Desktop genehmigt.
Alles noch nicht so gut durchdacht gewesen. Im Bios Settings zu ändern ist eine utopische Vorstellung für den 0815 Nutzer. Aber hoffentlich wird man aus den Fehlern lernen und die nächste Arc Gen besser machen.
Die Einstellungen im BIOS standen schon auf Auto bei mir, das manuelle setzen hatte nichts geändert. Denke mal Auto heißt schon soviel wie das es entsprechend aktiviert war
Alles noch nicht so gut durchdacht gewesen. Im Bios Settings zu ändern ist eine utopische Vorstellung für den 0815 Nutzer. Aber hoffentlich wird man aus den Fehlern lernen und die nächste Arc Gen besser machen.
der 0815 user kauft auch keine Intel Grafikkarte, sondern greift zum fertigen System. Jeder der zusammenbaut, wird das hinbekommen und demjenigen ist das auch zumutbar. Schön ist das trotzdem nicht, aber kein Hindernis.
Das muss definitiv noch über den Treiber passieren - die Nutzer selbst im BIOS und in den Energiespar-Einstellungen rumfrickeln lassen ist keine Lösung.
mir fehlt da irgendwie der Energieverbrauch der 4090. Wir wissen alle, die kann Unmengen an Energie schlucken, aber wie siehts bei ihr in Leerlauf aus?
Bei mehr Hz ist das natürlich bei allen Karten so.
60Hz habe ich 16W idle und bei 240Hz 50W.
Weswegen ich auch die 240 Hz immer manuell vor dem Spielen aktiviere.
Da wäre für mich gleich interessant ob man das auch automatische realisieren kann....jemand ne idee?
Das User hier im BIOS aktiv werden müssen ist kompletter Murks... da wäre mir sogar ein Firmware-Update für die GPU lieber. Der könnte wenigstens direkt im OS ausgeführt werden und eventuell sogar einem Grafiktreiber-Update beigelegt sein.
@AssassinWarlord Enttäuschendes Resultat, aber danke fürs ausprobieren.
@Jan Wird es diesbezüglich nochmal ein Update des Test der GPUs geben?
@ToonPhantom Die 4090 liegt etwa 5W unter der 3090Ti im Idle, siehe das Review der 4090. Ich nehme an, dass Sven einfach den Datensatz aus dem Review der Intel GPUs kopiert hatte.
Enttäuschend? @Rickmer
Die Karte verbraucht doch schon damit deutlich weniger, schade nur das es im Multimonitor Betrieb scheinbar die selben Probleme gibt wie mit nVidia oder AMD früher
Da ist eine alte Matrox Parhelia im mehr Monitor 2D Betrieb sparsamer
Warum steigt eigentlich der Energiebedarf im Dual Monitor Betrieb so stark?
Insbesondere die AMD 6000er Serie die im Single Monitor Betrieb besonders sparsam sind, brauchen plötzlich das ~5 fache... Da liegt doch auch was im argen?
mir fehlt da irgendwie der Energieverbrauch der 4090. Wir wissen alle, die kann Unmengen an Energie schlucken, aber wie siehts bei ihr in Leerlauf aus?
Die Nvidia GeForce RTX 4090 liegt bei etwa 20 Watt im Leerlauf.
Rickmer schrieb:
@ToonPhantom Die 4090 liegt etwa 5W unter der 3090Ti im Idle, siehe das Review der 4090. Ich nehme an, dass Sven einfach den Datensatz aus dem Review der Intel GPUs kopiert hatte.
Die Intel Arc A770, A750 und A380 sind beim Datensatz der Nvidia GeForce RTX 4090 nicht mit drin, weshalb ich das Diagramm aus dem Test der A770 und A750 nehmen musste.
Mich wundert es an der Sache, dass Nvidia und AMD den niedrigen Stromverbrauch anscheinend ohne aktives ASPM im Bios hinbekommen. Wer sich mit möglichst stromsparenden Mainboards beschäftigt, kommt früher oder später mit ASPM in Berührung. Und leider ist die Implementierung je nach Boardhersteller sehr unterschiedlich.
Bei den aktuellen Energiepreisen fände ich es echt angebracht, solchen Themen mehr Beachtung zu schenken, gerade bei Reviews.
Warum steigt eigentlich der Energiebedarf im Dual Monitor Betrieb so stark?
Insbesondere die AMD 6000er Serie die im Single Monitor Betrieb besonders sparsam sind, brauchen plötzlich das ~5 fache... Da liegt doch auch was im argen?
Weil einige Bestandteile der Karte höher takten müssen - im Endeffekt hast Du ja die doppelte Anzahl Pixel etc.
Was häufig allein schon 20-30W braucht ist wenn der Speicher plötzlich hochtakten muss.
Um wieviel geht der Verbrauch denn jetzt konkret runter, davon steht weder was im Artikel und auch die Verbrauchsgrafiken scheinen den alten Stand vor der Verbesserung zu zeigen..