News Intel Skylake: Grafikeinheiten der Gen9 mit Änderungen im Detail

gerdbrecht schrieb:
Ich soll 100> Euro für die iGPU ( Hälfte vom Die ) bezahlen, wo ist das denn bitte Low Budget???
Genau, ohne IGP hätte Intel dir die CPU sicher für 100€ weniger verkauft. :rolleyes:

Hälfte vom Die ist futscht, hätte man mit 2 bis 4 Kernen füllen können. Ich wollte nämlich ne CPU kaufen und keine scheiss Grafikkarte.
Dann kauf doch nen 6-8 Kerner ohne IGP, wäre ja nicht so als würde es die nicht geben.

Und wer hat bitte gesagt das ne dedizierte Graka bei wenig Last viel Energie verbraten muss?
Zumal Grakas viel Platz für alle möglichen HardwareCodecs haben um effizient Videos dekodieren zu können.
Ne dedizierte Grafikkarte verbrät zumindest mehr als ne IGP bei Idle-Kram. Und IGPs stehen den ded. Grafikkarten in Sachen Decodierung seit einigen Jahren kein Stück nach.

Zumindest im mobilen Bereich der 15W SoCs ist ein Fortschritt der IGP wünschenswert. Denn da gehts um kleine Geräte wo kein Platz für ne zusätzliche GPU ist.
 
MDusik schrieb:
Für wen ist es denn eigentlich interessant, wie viel Power diese intigrierten Grafikeinheiten haben?

Ich spiele mit der Haswell GPU - wohl auf niedrigsten Einstellungen aber immerhin - ein paar Steam Titel (TF2, L4D2, ) und ältere Games (Mount&Blade: Warband fängt an zu ruckeln wenn zuviele Ritter im Kampf sind). Hätte gerne die Iris Pro gehabt aber Intel hat die groß auf Papier angekündigt wollte dann aber nicht [zumal in Desktopform] verkaufen.

MDusik schrieb:
Zocker kaufen doch eh eine externe Grafikkarte.

Da gehöre ich nicht mehr dazu. Mir kommt keine Grafikkarte mehr ins System... bis ich mir mein nächstes MB+CPU hole ist sicher auch die integrierte Grafik soweit fortgeschritten daß ich nichts anderes mehr brauche für meine Bedürfnisse.

Auch Lautstärke+Kühltechnisch ist das sehr schön. Fetter Metallklotz auf der CPU und gut. Grafikkarten brauchen da mehr Lüftung, auch die (semi)passiven.

Darf gerne Neuerungen geben in dem Bereich - wers nicht braucht muss es ja nicht verwenden.
 
gerdbrecht schrieb:
So einen Müll muss man hier ertragen. [...]Aber dein Problem ist eher, dass du den Unterschied zwischen Effizienz ( Wirkungsgrad ) und Verbrauch ( =Energie, das was du wohl meintest ) nicht kennst. Seit wann ist eine Intel GPU effizient? Die HD4600 vom i7 hat 1/3 der Transistoren meiner GTX970 aber grad mal nen 1/20 Pixelfüllrate, etc.
a) keiner zwingt dich das Forum zu lesen.
b) Wenn du seinen Fehler erkannt hast, warum spielst du dich hier dann so auf?
c) Du hast ein LAPTOP fürs GAMEN um ENERGIEEFFIZIENT zu sein. Warum ist Effizienz, gerade bei BF4, denn vorrangig(deiner Meinung nach)?
d) um das theoretische Maximum zu erreichen braucht man entsprechende Software: daß NV unter DX12/WinX langsamer ist(auch nur Vorab-tests) scheinst du ja bereits zu wissen. Das gilt aber auch nur für Spiele. Und Spiele belasten sehr selten eine GPU gleichmässig.


imho:
Laptop + energieeffizient = verständlich

Laptop + gamen = fail
- Kosten, wie du selbst erwähnst
- der Zwang an ein Display, das bei Laptop selten 120Hz bringt - aber du hast ja eventuell ein Gsync display :D
- displaygröße hilft beim Zielen, aber du hast ja bestimmt ein 22"display im Laptop
- keyboard *kotz*
- positionierung & körperhaltung generell - du musst dich an dem Gerät ausrichten, anstatt alles an dich anzupassen


Gamen + energieeffizient = an sich nicht falsch, aber
du kannst genausogut FrameLimiter nutzen und Powertargets runtersetzen um das Verhältnis Stromverbrauch/fps zu verbessern.
Widersprüchlich weil man beim Gamen normalerweise immer maxFPS braucht.


-die folgenden Fragen scheinen vielleicht provokant, sind aber ernst gemeint-

Wie misst du deine Effizienz (außer anhand von Datenblättern)?

Wie misst/vergleichst du die Effizienz von "Normalo"-PCs?

Wieso ist Effizienz für dich so wichtig?
>Spielst du viel unterwegs gegen Bots mit dem Akku?
>nutzt du ne Solaranlage um deine Behausung mit Strom zu versorgen?





zum Thema: bin immer noch der Meinung, daß so ein Info-Schnipsel zur iGPU nicht eine CB-News wert ist. Hätte man auch im Skylake Bericht bringen können, der uns dann aber auch sagt, daß kaum was geändert wurde außer Takt/Abstand
 
Zuletzt bearbeitet:
Für wen ist es denn eigentlich interessant, wie viel Power diese intigrierten Grafikeinheiten haben?
Laptop-User, die ein paar Spiele spielen wollen. Da sind dedizierte GPUs nur im Weg, brauchen viel Strom, erzeugen viel Abwärme und erschweren dadurch die Kühlung. Und verhindern damit effektiv handliche Geräte.

Zum Bericht: Hab den doch gestern schon auf Phoronix gelesen. Haben die sich nicht an irgendwelche NDAs oder sowas gehalten? :freak:
 
Ich verstehe nicht warum alle eine interne Prozessor GPU bemängeln.

Neue Boards switchen bei niedriger Auslastung im Desktopbetrieb in den iGPU Modus und damit spart man richtig Strom.

ASUS DIGI+ VRM - Digital power control: digital power Design for the CPU and iGPU oder LucidLogix Virtu MVP sind so Stichworte die auf die Prozessor GPU zugreifen und in meinen Augen auch Sinn machen.
 
Ich habe für meinen zukünftiges Mini-ITX System durchaus Interesse an einem i5 oder i7 mit maximalen ausbau der IGPU.
Habe das neue System bisher nur noch nicht fertiggestellt weil die aktuellen Skylake leider noch nicht mit der GT4 ausgerüstet sind :(
 
Zuletzt bearbeitet:
Hätte auch großes Interesse an einer guten integrierten GPU ... würde nämlich ab und zu gerne mal ein Spielchen unterwegs machen ... da ist die HD 4000 im T430s dann doch zu lahm :(
 
BigBoys90 schrieb:
Casuel Gamer
Gelegenheits Spieler

Wow, zweimal den gleichen Begriff in zwei Sprachen und jeweils mit Rechtschreibfehler.

Abgesehen davon sind die CPUs mit den Grafikeinheiten nun nicht wirklich günstig, daher kaum für Low-Budget-Rechner geeignet.
 
Faust2011 schrieb:
Warum Xeon? Nein, greif zu Haswell-E: 6/8 Kerne und ordentlich Dampf (GHz) und dazu auch noch unlocked. Da kriegst Du jede CPU locker in den Bereich 4.2+ GHz.
xeons haben keine igpu verbaut. Eine "reine" CPU...

In den P / L Diagrammen sind die nicht umsonst immer soweit vorne. Schließlich bezahlt man keine GPU mit :)
 
DDexter schrieb:
Neue Boards switchen bei niedriger Auslastung im Desktopbetrieb in den iGPU Modus und damit spart man richtig Strom.

Nein, das funktioniert bislang nur im mobilen Bereich mit Technologien wie Optimus und Enduro. Im Desktop Bereich hat das noch nie funktioniert. Auch bei neuen Boards nicht.

DDexter schrieb:
ASUS DIGI+ VRM - Digital power control: digital power Design for the CPU and iGPU oder LucidLogix Virtu MVP sind so Stichworte die auf die Prozessor GPU zugreifen und in meinen Augen auch Sinn machen.

DIGI+ VRM war zu Zeiten von P67 und damit Sockel 1156 aktuell. Heutige Mainboards von Asus werden damit nicht mehr beworben. Außerdem hat es rein garnichts mit der Umschaltung zwischen iGPU und dGPU zu tun. Dabei handelt sich einfach nur um eine digital gesteuerte Spannungsversorgung.

Lucid Virtu MVP scheint selbst in seiner zweiten Iteration nicht zu funktionieren. Den Punkt muss man also auch einkassieren.

Fazit: Die Möglichkeiten der iGPU im Zusammenspiel mit der dGPU bleiben hinter den theoretischen Möglichkeiten zurück, daran ändert auch eine digital gesteuerte Spannungsversorgung für die CPU nichts(?!) und auch keine dysfunktionale Softwarelösung, wie Lucid Virtu eine ist.

TheGreatMM schrieb:
xeons haben keine igpu verbaut. Eine "reine" CPU...

In den P / L Diagrammen sind die nicht umsonst immer soweit vorne. Schließlich bezahlt man keine GPU mit :)
Bei so vielen Forenbeiträgen, wie du sie hast, könnte man meinen, du kennst dich ein wenig mit Hardware aus.
Natürlich steckt in den E3 Xeons eine iGPU. Basieren schließlich auf den selben DIEs wie die Consumer-Prozessoren. Man kann sie bei vielen Xeons nicht nutzen, vorhanden ist sie jedoch trotzdem.
 
Zuletzt bearbeitet:
TheGreatMM schrieb:
xeons haben keine igpu verbaut. Eine "reine" CPU...

In den P / L Diagrammen sind die nicht umsonst immer soweit vorne. Schließlich bezahlt man keine GPU mit :)

Natürlich haben die ne IGPU. Die 4 Kern Xeons sind die genialste Methode von Intel bisher um auf Dummenfang zu gehen. Die 4 Kern Xeons sind nichts anderes als die Dies die es nicht zum i5 und i7 geschafft haben, weil die iGPU defekt ist.

Man verkauft den Leuten also den Abfall den man sonst weggeschmissen hätte und die Leute feiern das noch und denken sie haben was besonders hochwertiges gekauft. So will ich auch mal mein Geld verdienen.
 
Beitrag durchgelesen, alle Foreneinträge durchgelesen.

Ich bin folgender Meinung :

Ich hatte einen 3570K und war froh, die integrierte GPU zu haben. Ich kaufte mir eine R9 270x und die war defekt. Inbder Zeit hatte ich Gott sei dank trotzdem wenigstens ein Bild und konnte die iGPU zum Surfen und zum Spielen von alten Games nutzen.

Und ich werde mir wieder ne CPU mit iGPU kaufen. Denn die reicht für den Normal-User, der Surft, Streams schaut und eben Standartkrams macht.

War für mich sehr nützlich zur Überbrückung, bis die "richtige" GPU ankam.

Es ist einfach ein schönes Gefühl, wenn man KEINE zwei PC's hat und weiß, das der PC trotzdem hochfährt, auch wenn die Graka mal ne Grätsche macht. So hat man keinen Totalausfall.

Ich bin Zocker. Normalerweise brauch ich ne iGPU gar nicht. Aber als "Notnagel" ist die gar nicht übel.

Also Leute, nicht mekkern und andere mit ihren Meinungen kritisieren. Jeder hat seine Gründe.

Hey, ich konnte bis die richtige Graka ankam wenigstens Generäle+Stunde Null zocken ;D


Mfg
 
Der mit Abstand größte Vorteil der iGPU ist der schon seit 5 Jahren (ab "Sandy Bridge" ) verwendete und auch mit der Zeit verbesserte Hardware Video En- und Decoder, den Intel als "Quick Sync" getauft hat ;D
Damit hat AMD und Nvidia damals garnicht gerechnet und plötzlich standen beide so da ---> :eek:
 
die gen9 und gen8 Folien sind wie so ein "Finde die Unterschiede" Suchspiel.
Nichtsdestotrotz freue ich mich auf schnellere IGP.
 
DDexter schrieb:
Ich verstehe nicht warum alle eine interne Prozessor GPU bemängeln.

Neue Boards switchen bei niedriger Auslastung im Desktopbetrieb in den iGPU Modus und damit spart man richtig Strom.
nur für Desktopdarstellung und Videdekodierung benötigt man aber nicht so eine große GPU.
 
Zurück
Oben