Rockstar85 schrieb:
Um die Effizienz mache ich mir weniger Sorgen, sie wird wohl etwas schlechter als bei den beiden Konkurrenten sein, aber nicht viel.
Muss nicht unbedingt so sein. Die Effizienz der Grafikkarten hängt heute auch zu großen Teilen nicht direkt von der Anzahl der Shader ab, sondern von der Organistation und wie der Treiber damit umgeht.
Wenn Intel wirklich geschickt aggiert hier und der Treiber wirklich passende Häppchen für die GPU liefern kann, dann könnte Intel durchaus auch ähnlich effizient bis effizienter als AMD und NVIDIA sein.
whynot? schrieb:
Woher kommt eigentlich diese permanente Annahme, dass die Treiber von Intel so unglaublich schlecht wären?
Das liegt damit zusammen, dass die Treiber gerade bei modernen Spielen gerner sehr unzuverlässig am Anfang laufen und Intel teilweise sehr lange gebraucht hat - besser die Notebook-Hersteller - bis sie die aktualisierten Treiber zur Verfügung gestellt haben.
Genau so preformen viele ältere Spiele nicht so mit den Intel-Grafikkarten, wie es eigentlich sollte. Die Leistung ist also unerwartet schlecht.
estros schrieb:
Wieso denn kein 1kw Netzteil im PC? Der ATX Formfaktor hat damit keine Platzprobleme.
Weil man damit langsam dann in Regionen vorstößt an Verbrauch, die nicht mehr lustig sind.
Aber erst mal vollkommen wertfrei.
zonediver schrieb:
lol... und der Strom kommt aus der Steckdose... bezahlt vom Papa... also echt... scheinbar ist Strom noch immer viel zu billig - aber das wird sich schon noch ändern... wenn das kW mal bei € 1.- steht, dann wird das Jammern anfangen...
Du wirst es kaum glauben: Bei manchen Stadwerken in der Grundversorgung hat man sogar bereits 1 € pro kWh bezahlt.
MasterAK schrieb:
Wenigstens gibt es den Vollausbau mit 512EUs auch fürs Notebook. Da können sich AMD und Nvidia ne Scheibe abschneiden. Was dort als 6800m oder 3080m bezeichnet wird, hat ja mit Navi21 oder GA102 nix zu tun.
Na ja ... so wirklich vergleichbar ist das in dem Fall aber nicht. Der 512 EU-Chip ist mit 4096 Shadern auch ein deutliches Stück kleiner als Navi21 und erst Recht der GA102 und entspricht in seiner Form eher dem GA104 und liegt damit zwischen Navi21 und Navi22.
Ja, es ist nicht schön, dass AMD und NVIDIA weder Navi21 noch GA102 in den Notebookmarkt entlassen, aber beides sind recht groß. 628 mm² und 520 mm², GA104 und Navi22: 393 mm², 335 mm². Der Xe wird dazwischen liegen.
Da ist es wesentlich leichter den Vollausbau auch ins Notebook zu bringen, zu mal dieser ja ohnehin eher 6700 XT oder 3070 angreift.
Rockstar85 schrieb:
Guck dir mal die Effizienz Pro Watt an. Aber okay.
An der Stelle muss ich ein ganz klein wenig mit dem Kop schütteln: Ich verstehe es durchaus, dass man beim Verbrauch auch auf die Effizienz verweißt, aber für mich jetzt persönlich - also meine Meinng - ist die aktuelle Entwicklung dennoch falsch, auch wenn die Effizient weiter steigen wird pro Watt.
Die Effizienz ändern nichts am absoluten Verbrauch und der kennt leider seit ein paar Jahren nur noch den Weg nach oben und das sollte man durchaus auch mal kritisch hinterfragen. Ja, ich hab mir jetzt die 3090 gegönnt, ich hab aber das Ding auf nun wirklich 350 Watt eingedrosselt und mit Framelimiter - 72fps - komm ich bei vielen Spielen, die ich spiele nicht mal über 100 Watt beim Verbrauch.
Ich hinterfrage das aber durchaus und finde es auch wichtig. Mir wäre es auch lieber die 3090 würde von anfang an mit 300 Watt TDP kommen und man würde sich dadrauf als "Maximum" einigen, aber gut, es soll so nicht sein, der Wettkampf läuft wieder und das bedeutet, die Hersteller wollen die Krone um jeden Preis.
GrumpyCat schrieb:
Da ist immer die Frage, wieviel von "Der Treiber ist nicht perfekt" kommt und wieviel von "Die Spieleprogrammierer haben haufenweise Hacks (nur) für NV und AMD eingebaut, die nicht mit Intel funktionieren".
An der Stelle muss ich sagen, dass oft nicht die Spieleentwickler "Hacks" für NV oder AMD einbauen, sondern die Treiberentwickler von NVIDIA und AMD "Hacks" in ihre Treiber einbauen um den Murks der Spieleprogrammierer zurecht zu biegen.
Vor dem selben Problem steht auch Intel und das macht die Treiber heute auch so komplex und hat es auch früher schon sehr komplex gemacht. Es gibt so manche Entwickler, die dann auch mal Funktionen aus DX oder ebenso OpenGL nicht immer so einsetzen, wie es von DX oder eben OpenGL gedacht ist. Genau so Abläufe in den Renderpipelines werden von Spieleentwickler nicht so gerne beachtet, das geht dann auch darüber, dass Spiele Entwickler in den Shadern teilweise "Murks" treiben, der zwar irgendwie funktioniert, aber nicht so wie er eigentlich sollte.
Genauso ist das Problem immer wieder, dass gerade der Nachwuchs oft primär nur auf einer "Grafikkarte" programmiert und damit Änderungen primär auf einen HErsteller hin vornimmt und dann mal ganz schnell unbewusst das eigentlich vorgesehen Verhalten von der API aufbricht und der andere Hersteller dann im Treiber drann muss.
Wirklich eine Engine entwickeln heute ist mit all den Effekten unglaublich komplex und man tritt schneller in Stolperfallen, als man glaubt, weil man mit einer vermeitnlich gut gemeinten Optimierung die Optimierungen im Treiber aus dem Konzept bringt usw.