News Intel Arc: DG2-Varianten für Notebooks im Detail

zonediver schrieb:
wenn das kW mal bei € 1.- steht, dann wird das Jammern anfangen...

Ganz sicher.

Wo soll bei deiner möglichen Zukunft dann der Preis für ein Liter Benzin angesiedelt sein? 5 Euro oder gar 10 Euro? Richtig jammern werden dann die Autofahrer. Die mit Strom und die mit Sprit. Teuer würde es für beide.

btt:

Bei Intel hat man gute Dinge in der Pipeline. Ihr XeSS scheint gut zu funktionieren, ihr XeGTAO ist eine gute Idee. Das Raytracing blabla können sie auch und wenn sie alles ab 11ter Generation sogar für die iGPU unterstützen, macht das sogar richtig Spaß, wenn man Xe deep link technologie noch dazu nimmt. Es muss nur funktionieren wie gedacht und hier liegt der Casus knacksus.

Eine "Totgeburt" wird es sicher nicht und ob dann alle potentiellen Käufer komplett überzeugt sind, interessiert auch keinen. Es müssen ausreichend sein, um die produzierten Mengen verkaufen zu können. Hier sehe ich aber keine Probleme.

Gerade bei den Notebooks, ist seeeeeeehr viel Markt vorhanden und die Menschen dort, haben auch die Taschen voll Geld. Das sind keine DiY Baumeister, die jeden Cent 10 mal umdrehen und dann immer noch unzufrieden sind.

Die Tatsache, dass die Dinger richtig schnell werden für alles, was man "produktives Arbeiten" nennt, bleibt noch zusätzlich bestehen. Hier könnte es aber wieder passieren, dass die Min0r alles aufkaufen. Für Intel, wäre das ja aber auch nicht wirklich "schlecht".

mfg
 
Mcr-King schrieb:
reicht dass auch schon wenn der Preis stimmt
Gerade mal bei ebay geschaut: die günstigste Radeon 6500 XT kostet 345€ - da wird es bei keinem Anbieter günstiger.
Weder bei intel, noch bei den Chinesen.

Trotzdem tut es gut, das intel so langsam aus den Puschen kommt und die Arc bringt
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich bin nicht wirklich ein Intel- Fanboy, aber muss sagen: wenn sie gefordert werden, bemühen sie sich auch.
Sie neueste CPU- Generationen, auch wenn es teilweise schon für mich irrsinnige Stromverbräche sind, um die Krone zu erklimmen, aber als AMD- User muss ich sagen: uch bei den Topmodellen von AMD wird geklotzt und nicht gekleckert.
Treiberprobleme, ok, kann ich nicht viel zu sagen, ich nutze meine iGPU's wirklich nur für vermutlich das, was Intel auch damit bezwecken will: keine dedizierte Grafikkarte von Nöten für den normalen Laptop- oder Desktop- Betrieb. Das bei Spielen dann der eine oder andere Grafikfehler auftritt, ich glaube, daß kann Intel verschmerzen, es sind einfach keine Grakas zum zocken.
Und Programmiere hat Intel vermutlich genug, um anständige Treiber zu zaubern, denke ich mal.
Apropos zocken: ich zocke grad ab und an an meinem Laptop mit core i5 2400m das alte Dune 2000, ohne Grafikfehler, oder ähnliches, sicherlich alt und kein Vergleich zu aktuellen Spielen, aber es läuft.

Und schlußendlich: wer nun mit dem Kauf einer Grafikkarte wartet, bis Intel liefern kann, selbst schuld.
Genauso wie man den vollmundigen Versprechungen seitens aller Hersteller keinen Glauben schenken sollte.
Wer jetzt im schlimmsten Fall vor Release sogar schon eine der ARC- Karten bestellen würde, ohne sich vorher informiert zu haben, was die Karten denn leisten, der wird vermutlich genauso enttäuscht sein wie etliche Vorbesteller bei noch nicht releasten Spielen.

Manchmal ist abwarten und Tee trinken wirklich besser.
 
  • Gefällt mir
Reaktionen: TechFA
owned139 schrieb:
Ändert nichts an der Aussage. Wenn der PC so viel Strom benötigt, wo ist dann das Problem?
Was ist denn die Alternative? Auf mehr Leistung verzichten?
Geil xD
 
  • Gefällt mir
Reaktionen: Mcr-King
Nobbi56 schrieb:
an alle, die gebetsmühlenartig an der Treiberkompetenz- und qualität von Intel Arc zweifeln:

Mit Verlaub, Ihr glaubt nicht wirklich, klüger zu sein als das Koduri-Team (und dieser Mann HAT Erfahrungen mit dGPU!)?

Der Herr hat mit dem Treiber nicht viel zu tun und AMD war in der Vergangenheit auch nicht bekannt dafür Problemlose Treiber zu liefern.

Ich sehe Problem bei den Treiber, aufgrund des Zustandes der Xe Treiber, durch aus ein Problem. In der Regel wird Intel nicht fürs Gaming benutzt, dadurch fehlen diese ganzen kleinen Edge Cases die AMD und Nvidia in ihren Treibern über Jahre gefixt haben.
Ganz gut sieht man das bei Geräten wie dem OneXplayer oder GPD Win 3/Max die mit XE Grafik kommen und Probleme bei einigen Spielen haben. LTT hatte beim OneXplayer kürzlich ein Video zu gemacht und ist auf die selben alten Probleme gestoßen die Intel in Monaten nicht behoben hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schneeland, iSight2TheBlind und Mcr-King
whynot? schrieb:
Woher kommt eigentlich diese permanente Annahme, dass die Treiber von Intel so unglaublich schlecht wären?
Ich nehme an, du meinst die 2D Darstellung von Word oder Browser Inhalten. Das können sie, ja. Sobald es 3D ist, hab ich da aber auch schon gruselige Erfahrungen gemacht.
 
  • Gefällt mir
Reaktionen: Mcr-King
[wege]mini schrieb:
Ganz sicher.

Wo soll bei deiner möglichen Zukunft dann der Preis für ein Liter Benzin angesiedelt sein? 5 Euro oder gar 10 Euro? Richtig jammern werden dann die Autofahrer. Die mit Strom und die mit Sprit. Teuer würde es für beide.
Bei 1€/kWh werden ganz sicher nicht nur die Autofahrer weinen :)
Nur mal angenommen dein Rechner zieht beim Zocken ~500W/h aus der Steckdose. Dann sind das bei 2Std zocken am Tag und der annahme das du täglich Zockst, ~14€/Monat nur für den PC. Kühlschrank(~20-100W/h, diese dann aber 24/7), Licht, Herd/Backofen(4,5-10kW/h), Kaffeemaschine(~1kW/h), ect.... kommen noch dazu.

1€/kWh wäre schon echt Bitter
 
  • Gefällt mir
Reaktionen: [wege]mini
Raucherdackel! schrieb:
Echt jetzt? 🤦🏻‍♂️ Das war doch gar nicht gefragt. Tellerrand, mein Freund...
Um was geht es denn hier? Um ne iGPU fürs Office und deren Treiber oder um ne Gaming GPU und deren Treiber?

Außerdem weiß ich nicht mal wer du bist. Ergo bin ich nicht dein Freund.
 
  • Gefällt mir
Reaktionen: Mcr-King
Tulol schrieb:
Um was geht es denn hier? Um ne iGPU fürs Office und deren Treiber oder um ne Gaming GPU und deren Treiber?
Es gibt mehr als nur Office und Gaming, und viele Anwendungen nutzen Qicksync oder vergleichbare Techniken wie GPGPU.
 
  • Gefällt mir
Reaktionen: Smartbomb und Mcr-King
Tulol schrieb:

Und jetzt unterhalten wir uns mal über wichtige Dinge.

Wir Menschen sind echt schlecht darin, bei niedrigen Temperaturen überleben zu können. Hier im Haus (wo ich gerade bin) werden 55.000 kWh für das Heizen mit Gas für 6 Haushalte verbraucht, pro Jahr. (kostet etwa 4k Euro für alle zusammen)

Wenn die 5 Mieter dann jeweils fast 10.000 Euro, pro Jahr, dafür bezahlen sollen, dass sie es im Winter warm haben und ihre Dusche nicht nur mit kaltem Wasser läuft, wird es richtig hässlich.

Diese Gedankenspiele sind zwar "unsinnig", man darf sie aber trotzdem machen.

btt:

Notebook Nutzer sind aktuell sogar "Öko". So ist die aktuelle Welt.

mfg.

p.s.

Tulol schrieb:
Um was geht es denn hier?

Auch du verdienst natürlich eine vernünftige Antwort.

Intel möchte ihre "dicken" Chips auch ins Notebook bringen. Die sollen dann mit weniger Takt und damit weniger Verbrauch laufen und sie sind das, was man vollwertige GPUs nennt. Die Tatsache, dass sie zu erst im Notebook erscheinen, liegt einfach an der Käuferschicht, die im DiY Markt unterwegs ist. (die muss man haben, will man aber nicht)

Aktion, Reaktion.

Und wenn dich jemand "mein Freund" nennt, sei nicht so abweisend. Wenigstens in der Textform war es höflich. Was du dann mit deiner persönlichen Lebenserfahrung aus diesen Worten machst, bleibt dahin gestellt.

Evtl. wärst du ja mit Digger, Bro oder Bruder besser angesprochen?
 
Zuletzt bearbeitet:
Nobbi56 schrieb:
Mit Verlaub, Ihr glaubt nicht wirklich, klüger zu sein als das Koduri-Team (und dieser Mann HAT Erfahrungen mit dGPU!)?

Koduri, das Gesicht hinter der AMD-Generation der großen Versprechungen und kleiner Leistung...
Poor Volta indeed!^^
Gab es jemanden der nicht froh war, als der Typ AMD verließ?
Und wie @nille02 schreibt: AMD war auch nie der Inbegriff guter Treiberprogrammierung.
Warum also ausgerechnet jemand der von einer Firma mit eher schlechten Treibern zu einer Firma mit schrecklichen Treibern (für Gaming bei aktuellen Titeln) wechselt ein Garant für jetzt aber endlich richtig gute Treiber sein soll, das müsstest du schon irgendwie erklären...
 
  • Gefällt mir
Reaktionen: JJJT, Mcr-King und TechFA
Ich entschuldige mich hiemit für diese unangebrachte Anrede.
 
  • Gefällt mir
Reaktionen: Mcr-King
Nobbi56 schrieb:
Hallo,

an alle, die gebetsmühlenartig an der Treiberkompetenz- und qualität von Intel Arc zweifeln:

Mit Verlaub, Ihr glaubt nicht wirklich, klüger zu sein als das Koduri-Team (und dieser Mann HAT Erfahrungen mit dGPU!)?
Das nicht zwangsläufig, aber ich glaube das Problem ist eher, dass viele Leute Raja Koduri mittlerweile als Jemanden sehen, der viel erzählt, wenn der Tag lang ist. Da hat er aber mit Pat Gelsinger wahrscheinlich seinen Bruder im Geiste gefunden. ;)

Weil oftmals kommt er rüber als wäre er einfach nur ein Blender, der sich halt nur gut verkaufen kann. Sprüche klopfen, aber dass im Grossen und Ganzen nix bei rum kommt. Weil bei AMD hat er oft auch einfach nur den Eindruck hinterlassen, dass er ein Schaumschläger/Wichtigtuer ist (Vega lässt grüssen; poor Volta).

Nobbi56 schrieb:
Dass der Erfolg von Arc mit der Stabilität und Performance der Software steht und fällt, dürfte niemandem so bewusst sein wie Intel selbst, dass Hat Mr. Koduri auch jüngst in einem Interview (mag von Intel gesponsort sein, muss deshalb aber kein Fake sein) ausdrücklich bestätigt.
Das schön, dass sich Intel dessen bewusst ist. Die (kritischen) Kunden (die vernünftige Treiber erwarten können und auch sollten, weil ansonsten sind die Karten weitestgehend nutzlos für die Käuferschaft), sind sich dessen aber auch ganz besonders bewusst. Darüber besteht jetzt glaube ich null Zweifel, oder?

Und dafür, dass sich Intel der Signifikanz der Treiber-Effizienz und -Funktionalität ganz dolle bewusst war/ist, war die DG1 SDV (Software Development Vehicle) aber mal extreme Ernüchterung für die Entwickler. Weil da hats nämlich vor allem an einem gescheitert (Deine eigene Worte);
Nobbi56 schrieb:
Worum es jetzt geht ist Treiber, Treiber und nochmals Treiber (einschl. Features wie XeSS u.a.)
Siehe @FormatC's Test (IgorsLab.de: Satz mit X(e) – DG1 samt Intel Iris Xe MAX Graphics im exklusiven Teardown und mit massiven Treiberproblemen bei den Benchmarks | Leak) und meinen Beitrag im anderen Thema.

Nobbi56 schrieb:
Deshalb befindet sich Intel nach seiner Aussage auch seit geraumer Zeit in einem intensiven Dialog mit Spielestudios.
Da haben aber NVidia/AMD einen jahre- bis jahrzehntelangen Vorsprung, den wird Intel niemals aufholen können.

Nicht bloss bei Spiele-spezifischen Treibern sondern insbesondere bei dem Dialog mit den Spiele-Entwicklern und Engine-Interna sind AMD und gerade NVidia Intel um Jahre voraus. Weil NVidia stellt für GameWorks selbst NVidia-eigene Treiber-Entwickler ab für die Mitarbeit bei den Game-Studios.

Nobbi56 schrieb:
Ich vermute sogar, dass das der Grund für die Verzögerung beim Launchtermin ist, weil Intel sich nicht blamieren will, wenn Alchemist von Gamers Nexus, Hardware unboxed usw. auf offener Bühne vorgeführt wird (wie beii Rocket Lake), wenn AAA-Titel spektakulär crashen. Die Arc-Hardware dürfte dagegen weitgehend finalisiert sein und da wird wohl allenfalls noch Feintuning im Feedback der Tests bei den Boardpartnern betrieben. Worum es jetzt geht ist Treiber, Treiber und nochmals Treiber (einschl. Features wie XeSS u.a.)

Nobbi56 schrieb:
Und es ist ja nun nicht so, dass es bei nVidia und AMD in der Vergangenheit niemals Treiberprobs gegeben hätte :rolleyes:!
Nö, absolut nicht. Wie @nille02 und @iSight2TheBlind schon schreiben (abgesehen davon, dass AMD mit Koduri eher für Treiber bekannt war, die mau waren), war auch Koduris Aufgabenbereich niemals Treiber sondern Hardware. Er kommt von einer Firma, die auch jahrelang Qualitätsprobleme mit ihren Treibern hatte, soll aber jetzt als Garant für plötzliche Treiber-Wunder sorgen (nachdem Intel damit schon seit Urzeiten Probleme hatte).

Ja, ist richtig. AMD war lange Zeit jetzt auch nicht dafür bekannt, die tollsten Treiber zu haben (lange ungefixte Black-screens mit den Polaris-Karten; OpenGL ist bei AMD noch immer ein Reizwort), deswegen ist Koduri erst recht kein Garant für funktionierende oder performante Treiber.
Nobbi56 schrieb:
Mag schon sein, dass es zum Arc-Launch hier und da ein paar Bugs geben wird, aber da traue ich Intel zu, diese zu fixen und in der Folgezeit die Treiber anständig zu pflegen.
Intel stellt auch seit über 20 Jahren Grafikchipsätze her, integrierte Grafikchips mit geringer Leistung.
Diskrete Grafikkarten sind dagegen eine ganz andere Hausnummer. Sieht man ja auch daran, dass Intel mit allen Versuchen einer diskreten Grafik seit immer schon eine Bauchlandung hingelegt hat.

Weil ihre diskreten GPUs (i740, Larrabee, Xeon Phi, DG1) sind stattdessen mehr oder weniger spektakulär gescheitert, und das nicht nur einmal. Außerdem haben sie sehr lange Zeit sehr dürftige Treiber herausgebracht.

ATi/AMD macht seit Jahrzehnten Treiber und die waren vor Relive/Crimson/Adrenalin immer noch ziemlich besch!ssen, während nVidia ebenfalls seit Jahrzehnten Treiber macht und die wurden seit der Veröffentlichung von GFE 3.x teils deutlich schlechter (DPC-lag, Latenz im Allgemeinen).

Nur weil jemand etwas schon lange macht, heißt das noch lange nicht, dass er/sie auch gut darin ist. Man braucht Leidenschaft, Ehrgeiz und Fleiß, um etwas gut zu machen - und genau das hat Intel bei den Treibern für ihre iGPUs seit jeher vermissen lassen.


Die Leute versuchen nur, Intels bisherige Leistungen in dieser Angelegenheit für das Ziel, das sie (wieder..) erreichen zu versuchen (diskrete Grafik), zu bewerten. Und das wahrscheinlichste Ergebnis zu prognostizieren, und damit die Wahrscheinlichkeit, ob/dass Intel (endlich einmal) erfolgreich ist. Nicht mehr und nicht weniger.

Und da sieht die Erfolgsbilanz für Intel in Sachen Grafik extrem schlecht aus, mit Milliardenverlusten und heftigen Rückschlägen, egal wie oft und wie sehr sich Intel immer anstrengte. Da ist Skepsis nicht fehl am Platze und da sind auch Zweifel keinesfalls falsch. Das muss man einfach nüchtern betrachten.

Intel Arc ist mittlerweile Intels 5. Anlauf in Sachen Grafik!
Ihre erste Grafikkarte (i740) war ein krasser Flop und wurde nach wenigen Monaten vom Markt genommen.
Der zweite Anlauf (Larrabee) ist auch ein absoluter Flop gewesen, ebenso ihr dritter Versuch (Xeon Phi), bei dem Larrabee weiter verwurstet wurde (um das Projekt nicht komplett sinnlos werden zu lassen.

Und der letzte Versuch in Sachen Grafik (iGPU) war nur deshalb halbwegs erfolgreich, weil sie auf die geniale Idee gekommen sind, ihre iGPU mit ihrer Intel-CPU zwangsweise zu bündeln. Weil allein auf sich gestellt, wäre ihre iGPU ohne Zweifel ebenso einfach am Markt unter gegangen und später eingestellt worden.

Oder meinst das auch nur Irgendjemand damals eine Intel GMA als dedizierte Grafikkarte gekauft hätte, wenn selbst NVidia's Chipsatz-Grafik und AMD's APUs mit integrierter Grafik Kreise um Intel gedreht haben?

Nobbi56 schrieb:
Denn wie gesagt: Arc muss ein Erfolg werden, schon für die Aktionäre. Und Intel über die Relevanz von Grafiktreibern insbes. Bei "Gaming-GPUs" belehren zu wollen hieße nun wirklich, Eulen nach Athen tragen.
Intel's Arc muss nicht für die Aktionäre ein Erfolg werden, sondern in erster Linie für Intel selbst! Damit sie nach jahrelangen Versprechungen noch überhaupt jemand in dem Bereich ernst nehmen kann..

Weil Intel's Larrabee, damals als Beschleuniger (für wissenschaftliche Berechnungen) entwickelt und wegen fehlendem Software-Support (obwohl Intel genau das immer wieder versprach aber verschob), wurde irgendwann ganz schnell nicht mehr gebraucht und deswegen zu einer All-purpose-Grafik umfunktioniert.

Aus Larrabee wurde dann Xeon Phi (damit die Entwicklung nicht komplett umsonst war), also Larrabee 2.0 quasi.

Auch Xeon Phi war über kurz oder lang zum scheitern verurteilt, weil.. Überraschung! .. Der Software-Stack und -Support drum herum überhaupt nicht vorhanden war. Damit war das Projekt ebenfalls ein Rohrkrepierer.

Nachdem aber Intel im Zugzwang war, endlich einmal (für Aurora, seit 2015 geplant!) zu liefern und Aurora schon 2018 stehen sollte und noch immer nicht steht (Tip: das sind jetzt 4 Jahre zu spät!), ist Koduri kurzerhand 2017 auf die Idee gekommen, ihre Intel Iris Graphics aufzupumpen und hoch zu skalieren.

Das Stand heute. Geplant war Intel's Xe für einen Markteintritt in 2020 (ja, wirklich!). Laut Aussage von Koduri wollte Intel sogar den Markt mit einem großen Knall betreten (engl. “enter the market with a bang.”).

Nachrichten vom April 2018...
NotebookCheck.com: First discrete GPU from Intel since 1998 will include a PC gaming variant
ExtremeTech.com: Intel Working on New Discrete GPUs, Codenamed Arctic Sound
Hexus.net: Intel working on Arctic Sound discrete GPU for gamers
WCCFTech.com Intel Teases ‘Arctic Sound’ Discrete Graphics Cards For 2020 – First Full on Dedicated Products Aimed at The Gaming Market

Daraus ist (überraschenderweise..) nix geworden, weil Arctic Sound (Intel Xe HP) wurde 2018 gross angekündigt, die Frist verlief und im Nachgang wurde AS von Koduri per Twitter-post abgekündigt und eingestellt. Der Rest vom Line-up wurde mal wieder verschoben auf 2021 und später auf 2022.

Stattdessen gabs dann die DG1. Leistungsschwach, stromhungrig und nur für OEMs (weil am Markt keine Chance). War also auch grösstenteils mehr oder weniger ein Flop, das unterste Ende der Fahnenstange was Grafik betrifft.

Und nachdem man das jetzt alles weiss und auch im Hinterkopf hat, dass Grafiktreiber (oder generell Software-Unterstützung) von Intel nie wirklich das gelbe vom Ei war (deswegen ist Larrabee und Xeon Phi gescheitert) ...

Gibt es irgend einen Grund zur Euphorie oder eher berechtigte Zweifel und absolut begründete Skepsis?

Immer dran denken, die Gerüchte damals in 2019, dass die DG1 Hitze- gepaart mit Performance-Problemen hat (verbraucht zu viel um die Leistung zu erreichen um einen AMD-APU zu schlagen), waren allesamt richtig.
GetTeched.com: Intel DG1 GPU Prototype Is Rumoured To Be Struggling
PCGAmesN: Intel Xe Jedi refutes ‘Intel’s DG1 woes’ through the medium of a Christmas song

Weil die DG1 ist genauso gekommen; Stromhungrig und wenig Leistung, obwohl es vorher zig Gerüchte gab, dass DG1 angeblich auf dem Level einer GTX 1050Ti/1060 sein sollte. War nix, Satz mit X.
Nobbi56 schrieb:
Momentan ist alles Kaffeeesatz und auch die notorischen Skeptiker und Zweifler sollten doch eigentlich hoffen, dass Intel der Einstieg gelingt denn mehr Wettbewerb hat im Kapitalismus noch nie geschadet ;) Das Angebot wird auf jeden Fall größer werden, ob es ausreicht, die immense Nachfrage besser zu befriedigen, muss man abwarten.
Bei Intel ist in Sachen Grafik Skepsis absolut angesagt (um sich vor Enttäuschungen zu schützen) und Zweifel, ob Intel das so hinbekommt, wie sie seit Jahren tönen, trotzdem immer wieder verschoben haben und Artic Sound schon wieder vorm grossen Release von Intel's Xe Graphics (die ja schon wieder zu Intel Arc umbenannt wurde, weil Glaubwürdigkeit immer mehr fehlt beim Kunden) gecancelt wurde.

Die Leute hoffen seit Jahren, dass Intel der Einstieg gelingt. An irgendwas hapert es aber gewaltig, seit Jahren.
Obiges ist auch keine Schwarzmalerei oder Pessimismus, sondern es gibt tausend gute Gründe Intel in Sachen Grafik erst dann ernst zu nehmen, wenn sie abgeliefert haben. Wie gesagt, 2020 ist schon wieder was her..

Kaffeesatz-Leserei ist vielmehr das hypen von Intel's Xe auf RTX 3060-Niveau, obwohl es dafür praktisch keine Anhaltspunkte gibt ausser Gerüchte. Und bei vielen Gerüchten gabs in der Vergangenheit immer wieder herbe Enttäuschung, gerade wenns um die Leistung von Intel-Hardware ging.

TechFA
 
  • Gefällt mir
Reaktionen: Smartbomb, iSight2TheBlind und Mcr-King
Artikel-Update: Auf Twitter wurde ein Foto geteilt, das eine DG2-GPU mit sechs Speicherchips zeigt. Die Kennung verrät, dass es sich um GDDR6-Speicher mit 16 Gbps von Samsung handelt. Pro Chip sind es 2 GB und somit insgesamt 12 GB VRAM, was zu den obigen Angaben für die 384-EU-Version passt.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: BrollyLSSJ, Mcr-King, Smartbomb und 4 andere
Ich kann diese Treiber-Aussagen nicht mehr hören.
Niemand spielt mit einer Intel-GPU, aber jeder scheint zu wissen, dass die 3D-Unterstützung einfach schlecht ist.

Ja, früher gab es keine ordentliche Spiele-Unterstützung.
Viele Games ließen sich nicht mal starten. Aber das war zu einem Zeitpunkt, als die GPU für Office ausgelegt war.
Seit dem ist viel passiert und Intel ist gerade im Multimedia-Bereich sehr gut unterwegs, während andere Hersteller Multimedia-Features einfach mal deaktivieren bei neuen GPUs.

Jetzt, wo Intel die Gaming-Offensive plant, sollte man schon darauf vertrauen, dass die Treiber entsprechend vorbereitet werden.
 
  • Gefällt mir
Reaktionen: DaBo87
@Bemme90 Warum sollte man darauf vertrauen?
Ist es nicht eher Aufgabe von Intel zu liefern, dann kann man - nach einer Weile - vertrauen?!

In deinem Beitrag sagst du auch eigentlich nicht, wie sich die Situation bei Spielen nun wirklich verbessert hat - dass Intel im Multimedia-Bereich gut unterwegs ist spielt ja echt absolut keine Rolle wenn es gezielt um Gaming geht.
Quicksync ist zwar vielleicht ein toller Ersatz für Shadowplay, aber dafür muss das Spiel ja erst mal (übertrieben gesagt) laufen :)
 
  • Gefällt mir
Reaktionen: TechFA
Spike Py schrieb:
Ehrlich jetzt? Die meisten (mich eingeschlossen) haben sicher kein Problem mit dem Platz, sondern dass der Verbrauch so absurd hoch ist. Die Welt ist am Abgrund und brennt und wir verballern einfach mal doppelt soviel Strom wie im Jahr zuvor um aktuelle Spiele in guter Qualität zocken zu können. Wie dekadent kann man sein ... Antwort: ja!

Außerdem, wohin kühlst du das im Sommer weg? Ich hoffe (oder auch nicht) dass du bereits ne Klimaanlage in deinem Haus installiert hast.
Also ich hab auch ein 1kW Netzteil verbaut, aber halt nicht die Hardware um das auszulasten.

Und selbst wenn, dann kommt es natürlich auch darauf an wie oft hier Spitzenlast abgerufen wird. Denn im Idle bzw Standardbetrieb nehmen sich die ganzen GPUs und CPUs ja nicht viel. Wenn man dann noch einen Framelimiter rein haut, dann siehts nochmal ganz anders aus. So brauch ich in FF14 keine theoretischen 200 FPS. ^^
 
iSight2TheBlind schrieb:
@Bemme90 Warum sollte man darauf vertrauen?
Ist es nicht eher Aufgabe von Intel zu liefern, dann kann man - nach einer Weile - vertrauen?!
Absolut, aber Vorverurteilung (und damit meine ich nicht Skepsis auf Grund früherer negativer Enttäuschungen, das ist ja berechtigt) bringt auch keinem was. Intel scheint sich hier wirklich sehr zu bemühen, Fuß zu fassen. Es ist absolut unlogisch anzunehmen, dass sie die Hardware ordentlich entwickeln und die Treiber dann absolut gar nicht mit den Anforderungen klarkommen.

Kritisieren darf man alles, aber immer gleich alles verreißen ohne Anhaltspunkte ist unprofessionell.
 
  • Gefällt mir
Reaktionen: Bemme90
Zurück
Oben