Blutschlumpf schrieb:
Interessiert halt schlichtweg keinen, wäre technisch sicher möglich.
Woher weißt Du das?
IMO ist das bestenfalls mit einem so hohen Aufwand möglich den niemand bezahlen will. Auch Du nicht.
Und grundsätzlich gilt, wenn ich auf hohe Leisung optimiere, kann ich nicht gleichzeitig optimal bei extrem niedriger Leistung sein. Wenn ich auf niedrigen Verbrauch in Schwachlast optimiere, kann ich bei der Spitzen-Performance nicht mithalten.
Was ich mit Aufwand meine ist, es gibt eine Option das Optimierungsdilemma zu umgehen, d. h., je nach Last Funktionseinheiten zuzuschalten oder zwischen Funktionseinheiten umzuschalten. Und hier meine ich nicht nur den Prozessor, sondern auch alle Komponenten im System. Aber auch dieses Umschalten und das ermöglichen dieser Option benötigt Energie und erhöht die Systemkosten.
Natürlich kann man den Energieverbrauch senken wenn man Komponten abschaltet. Aber das dauerhafte Abschalten hat auch seine Tücken vor allem bei IO-Komponenten. Zum Beispiel wenn ich nachträglich eine Maus einstecken will.
Bei den Prozessoren gibt es das Hybriddesign, um bei Schachlast Energie zu sparen. Ein Hybriddesign spart Energie wenn gilt:
- Die E-Kerne sind auf niedrige Last optimiert
- Die P-Kerne sind auf hohe Last optimiert
- Bei niedriger Last sind nur die E-Kerne aktiv
- Bei hoher Last werden die P-Kerne aktiviert. Die E-Kerne verrichten weiterhin die Arbeit an Threads mit niedriger Last.
- Wenn sich die Last eines Threads ändert, muss er ab einer Schwelle auf den anderen Typ von Kern verschoben werden.
So wie es Intel macht, spart es natürlich keine Energie.
Blutschlumpf schrieb:
wenn sie korrekt funktionieren 5-10 Watt idle brauchen, aber in diversen Situationen mit mehreren Monitoren schlichweg eben nicht klarkommen und dann nicht richtig runtertakten und teilweise absurd hohe Verbräuche haben.
Mit einem Monitor ist es auch erheblich einfacher zu lösen als mit mehreren Monitoren. Sowohl das Programmieren als auch das Testen. Das ist offensichtlich da im Multi-Monitor-Set-up unzählige Monitorkombinationen berücksichtigt werden müssen.
Außerdem gilt: ich kann nur runterfahren, wenn ich auch anschließend garantiert wieder hochfahren kann.
Blutschlumpf schrieb:
Du meinst ausbauen oder gibt es Tools, die die Karte wirklich komplett abschalten können?
Hab ich jedenfalls noch nicht von gehört.
Ich bin da kein Experte und bin nur drauf gestoßen als AMD hat bei der Einführung von Ryzen 7000 von der Option geredet hat, das Grafiksignal über das Mainboard laufen zu lassen und dann im Desktopbetrieb die Grafikkarte abzuschalten und die iGPU zu verwenden. Es ist aber kein neues Feature, das gab es schon vorher.
Kurz drauf bin ich auf einen Artikel gestoßen der erwähnt hat, dass diese Konfiguration generell ein paar Frames kostet. Auch deshalb ist sie wohl nicht so beliebt.
Wenn's Dich interessiert, frag doch im Grafikkartenforum nach, wie gut das tatsächlich funktioniert.
Blutschlumpf schrieb:
Oder die Blase platzt wie viele andere zuvor auch.
Die Blase ist ChatGPT und die Copiloten.
AI oder genauer ML ist keine Blase, sondern wird schon längst in vielen Anwendungsgebieten produktiv eingesetzt.
Ich habe noch nichts davon gehört dass Amazon Alexa wieder abschalten will. Also wird es offensichtlich genutzt. Automatische Übersetzung erleichert mir den Zugang zu Webinhalten in Sprachen die ich nicht verstehe. Und so weiter ...
In der 4. Episode von Advanced Insights erklärt Amin Vahdat wieso Google mit der Entwicklung von Tensor Processing Units angefangen hat.
Ab Minute 10 kommen die beiden zum Thema AI ab Minute 14 erklärt Amin Vahdat wieso Google TPUs entwickelt.
Blutschlumpf schrieb:
Es wurden schon so viele Dinge gehyped, die sich nicht durchsetzen konnten.
AI hat sich in vielen Bereichen schon durchgesetzt.
Und in vielen steht der Durchbruch bevor. Schlicht und einfach weil es notwendig ist und die Probleme mit konventionellen Algorithmen nicht gelöst werden können.
Beispiel:
https://semiwiki.com/eda/334732-ai-for-the-design-of-custom-analog-mixed-signal-ics/
Blutschlumpf schrieb:
Aktuell ist KI primär ne Spielwiese auf die gerade sehr viele Bock haben und wo unheimlich Kohle reingepumpt wird.
Ob sich da langfristig wirklich ein realer Nutzen draus ergibt steht aber in den Sternen.
Das siehst Du falsch. AI in der Form von Machine Learning wird wie wiederholt gesagt, schon lange eingesetzt. Nur wissen es die meisten nicht, dass sie AI Algorithmen verwenden.
Was gab es z. B. einen begeisterten Aufschrei in den Gaming Medien, als Mark Papermaster die Bemerkung fallen lies, dass die nächste Version von FSR so wie DLSS auch AI Algorithmen verwenden wird.
Was sich mit ChatGPT geändert hat, dass nun sehr viele Projekte gestartet wurden, aus der Angst einen Trend zu verpassen.
Natürlich werden viele dieser Projekte scheitern. Aber viele werden erfolgreich sein und ganz wenige werden ihr Umfeld revolutionieren. In der Dot.Com Blase wurde sehr viel Geld verbrannt. Aber noch viel mehr Geld haben Unternehmen verbrannt die sich nicht an der Veränderungen angepasst haben.
Es haben einige bis heute nicht verstanden, dass die Revolution nicht die Website war auf der man einkaufen kann, sondern die Logistik dahinter, die diesen Einkauf erst möglich macht.