News 15 „Haswell“-Prozessoren für Notebooks benannt

Matzegr schrieb:
Die angaben bezogen sich immer auf einen theoretischen SingleCore (SC)
Ein Dualcore würde 200% des Platzes eines SCs benötigen und liefert bis zu 200% der Leistung eines SCs
Ein Modul würde 120% des Platzes eines SCs benötigen und liefert bis zu 180% der Leistung eines SCs
Intels HT würde 105% des Platzes eines SCs benötigen und liefert bis zu 125% der Leistung eines SCs
das entspricht ja meiner Rechnung ;)
Man sollte aber nicht vergessen dass auch bei klassischer Architektur über die ganze CPU nicht gleich doppelt Kerne doppelt Platz brauchen.
Athlon II X2 = 117,5 mm² - X4 = 169mm² - aber das nur so nebenbei.

Immer dieses Leistung/Takt. Wichtig ist einzig und allein die Leistung/Wattstunde! Und da ist Trinity nicht schlechter als Llano und das obwohl K10.5 schon zu tote optimiert ist und bei K15 noch viel Potential vorhanden ist.

hm seh ich etwas anders. Ich sehe auch hier Trinity nicht besser als Llano - warum? Weil Llano die Spannung viel zu hoch angesetzt hat. Vermutlich wusste AMD damals schon dass Trinity effizienztechnisch oft sogar schlechter dastehen würde.

In der Fertigung wie sie nun bei Trinity eingesetzt werden kann, würde Llano weit weniger Spannung brauchen. Hier Llano untervoltet.

llanouvj8ur5.jpg


Wieviel Saft braucht ein Trinity bei etwa der Leistung einer A8 3870 Llano APU?

Leider gibt es keinen identischen Test zu Trinity von HT4U. Vergleicht man zb mit dem a8-5600k si sieht man dass die Performance etwa (fast Exakt)auf A8 3870K Llano Niveau ist.

Test hier:

http://www.pcmasters.de/hardware/review/amd-trinity-cpu-part-des-a8-5600k-im-test/9.html

AMD_Trinity_CB_Multi.jpg


Allerdings ist das UV Potential hier weit weit geringer.

Untervoltet kann man so nur ca 19W herausholen:

AMD_Trinity_OC_UV.jpg


Beim Llano sind es wie man oben sieht 88W auf 53W = 35W durch UV.

Natürlich ist nicht jede CPU gleich, aber Trinitys Effizienz wird etwas durch den hohen Takt versaut. Und der Vergleich Llano vs Trinity "outofbox" is immer Pro Trinity da die Spannung bei Llano default übertrieben hoch angesetzt ist. Vielleicht mit Absicht aber ich will jetzt keine Gerüchte streuen ;)

Trinity ist effizient, versteh mich bitte nicht falsch. Aber durch die zu hohe Spannung bei Llano entsteht auch der Eindruck als wäre Trinity deutlich effizienter. Die Werte sind jetzt natürlich Vollast. Wie es bei Teillast aussieht... naja. Immerhin kann Llano einzelne Kerne abschalten während bei Modulen weniger flexibel agiert werden kann. Aber Trinity hat erweiterte Energiesparmodi.

Was bringt aber ein aufgeblasenes Trinity Featureset, wenn es der Benchmark nicht unterstützt? Schauen wir uns mal Cinebench 11.5 an. Würde man stattdessen Cinema 4D R13 oder R14 einsetzen, würde der Trinity wesentlich besser gegenüber den Llano abschneiden. Denn: FX-8120 @4,5GHz vs. Phenom II X6 @3,8GHz
Bei Cinebench R11.5 erreicht der FX 14% mehr Punkte als der X6 beim Rendern mit Cinema 4D R13 ist der FX aber plötzlich 40% schneller als der X6.
Wenn wir jetzt noch nen Benchmark finden würden, der FMA unterstützt, dann würde die K10.x Architektur gegenüber K15 kein Land mehr sehen.

Jetzt noch nen kleiner Einwurf zum Thema SMT/CMT

Programm 3dsmax 2011 + Vray 1.5SP5

FX 8120 @4,5 GHZ : ~ 679s
I7 2600K @4,5 GHZ : ~ 621s
FX 8350 @4,5 GHZ :~ 580s


Gegenfrage: Was bringt ein aufgeblasenes Trinity Featureset im Consumermarkt in dem die CPU seltenst Cinema 4D oder 3dsmax 2011 ausführen werden wird?
Vllt verkennt AMD hier etwas dass weniger manchmal mehr ist. Vllt spart man hier lieber 50% der Features ein und reduziert die DIE Größe, erhöht die Yield etc...? Bei diesen Massen CPU vllt her interessant als beim FX der eher einem Feautureset gerecht wird und dieses bei Servern und Workstations auch abrufen wird.

Und nun Spannen wir den Bogen zum eigentlichen Thema: Haswell

gute Idee ;)

Intel wird mit Haswell erst mal ähnliche Probleme haben wie AMD mit ihrer K15 Architektur.
In den Standardbenchmarks wird die Leistung gegenüber Ivy-Bridge kaum steigen, weil halt die neuen Features noch nicht unterstützt werden.

klar. Intel wird typischerweise den Takt um 3 % anheben und die CPU selbst dürfte ebenfalls 3-5% / Takt zulegen. Mehr erwarte ich auf CPU Seite nicht. Featureset hin oder her.

Da kann ich dir jetzt schon prophezeien, dass sich beim Test von Haswell viele drüber beschweren werden, dass man kaum schneller als nen Ivy ist und jetzt lehn ich mich ganz weit aus dem Fenster: Schon auf Seite 1 der Kommentare wird die Aussage kommen, das AMD daran schuld ist, weil man keine Konkurrenzfähigen Produkte hat. :evillol:

ne eher wird das Getrolle vieler AMD Jünger kommen die mehr erwartet hatten xD.

AMD ist eher daran schuld dass die Quadcores bei Intel so teuer sind ;) - nicht daran dass die X86 Kernleistung nicht unermesslich gesteigert werden kann. zB gibts deswegen auch keine billigen Hexa Intels auf LGA1155 bzw kosten diese generell noch sehr viel, dabei wären schon locker 8 Kerne auf S2011 - von heute auf morgen sogar.

P.S.:

Der Vergleich

FX 8120 @4,5 GHZ : ~ 679s
I7 2600K @4,5 GHZ : ~ 621s
FX 8350 @4,5 GHZ :~ 580s

ist in sofern etwas ... naja... weil man hier dann eher mit einem Sockel 2011 CPU vergleichen müsste, rein ausgehend vom Verbrauch, DIE Size, Fertigung (32 nm).
Preis mal außen vor, aber Performance macht den Preis und der Läge beim FX bei 1000€ wenn er Intels S2011 in die Schranken weisen würde.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Weil Llano die Spannung viel zu hoch angesetzt hat. Vermutlich wusste AMD damals schon dass Trinity effizienztechnisch oft sogar schlechter dastehen würde.
....
Und der Vergleich Llano vs Trinity "outofbox" is immer Pro Trinity da die Spannung bei Llano default übertrieben hoch angesetzt ist. Vielleicht mit Absicht aber ich will jetzt keine Gerüchte streuen ;)

Spannung zu hoch ist Standard bei AMD.
Mein uralter Brisbane läuft absolut stabil mit 0,35V weniger!

Und sonderlich groß ist der Unterschied auch nicht bei Llano und Trinity.
Llano läuft mit 0,2V weniger (CB (Last-Idle): von 98W auf 69W)
Trinity läuft mit 0,15V weniger. (CB (Last-Idle): von 93W auf 74W)
Vom UV Potential also recht ähnlich. Wirklich schade das ht4u von Trinity keinen Test hat, hoffentlich sehen wir einen von Richland.





Krautmaster schrieb:
Gegenfrage: Was bringt ein aufgeblasenes Trinity Featureset im Consumermarkt in dem die CPU seltenst Cinema 4D oder 3dsmax 2011 ausführen werden wird?

Nicht viel. Aber auf lange Sicht ist es vom Vorteil. Wenn HSA voll implementiert ist, bringen die Module Vorteile. Bis dahin hat man auch viel Zeit für Optimierung. Mit mehr Geld könnte man die Übergänge von einer auf die nächste Architektur sicher besser gestalten, aber es fehlt nun mal leider an Geld, so muß man halt das aufgeblasene Featureset aus den FX-Kernen auch in den APU Markt bringen.




Krautmaster schrieb:
klar. Intel wird typischerweise den Takt um 3 % anheben und die CPU selbst dürfte ebenfalls 3-5% / Takt zulegen. Mehr erwarte ich auf CPU Seite nicht. Featureset hin oder her.

Das du nicht mehr erwartest weiß ich, aber ich erinnere mich noch an den Ivy-Test zurück. Da gab es auch bei den meisten viel zu hohe Erwartungen und dann gab es enttäuschte Meinungen weil es nur +5-7% zu SB war. Ich glaube bei Haswell wird es ähnlich sein. Viele werden denken: Ah jetzt kommt ne neue Architektur also muß es automatisch mehr Leistung geben als bei nen Shrink. Viele werden eine zweitstellige Leistungssteigerung von 15-20% erwarten/fordern.
 
Womit wir wieder bei dem Thema sind, dass der größte Konkurrent von Intel, wohl Intel selber ist.
Wenn Haswell bei der CPU 20% schneller als Ivy wäre, würde ich Haswell kaufen. Bei 5% - 10% passe ich und bleibe bei Ivy. Somit verkauft Intel mir 2013 keine CPU und die MB Hersteller kein Mainboard.
Schon auf Seite 1 der Kommentare wird die Aussage kommen, das AMD daran schuld ist, weil man keine Konkurrenzfähigen Produkte hat.
Mit einer starken AMD Alternative würde Intel sich wohl mehr anstrengen müssen. AMD ist nicht schuld daran aber Intel muss wohl lernen, das man den Kunden etwas mehr bieten muss, damit die auch kaufen.
 
Genauso fundierte Argumente wie "128MB Cache bei Haswell GT3 kann gar nix bringen!" ?

rofl

In dem Land wo man diesen Aussagen als Argumente bezeichnen würde wachsen Kartoffeln sicher auch auf Bäumen.

Wie auch immer. Unter allen Aussagen hier hat bensen absolut recht, ihr zwei habt bei der Dummheit der Argumente die Speerspitze gebildet.

@Matzegr

erstmal dickes Lob an dich ;) - du scheinst im Gegenteil zu manch anderen hier neutraler diskutieren zu können ^^

Wirklich schade das ht4u von Trinity keinen Test hat, hoffentlich sehen wir einen von Richland.

ja mich wundert es etwas das ht4u wenig aktuelles zu bieten hat. Gerade Leistungsaufnahme kristallisieren nur wenig andere so gut heraus.

Nicht viel. Aber auf lange Sicht ist es vom Vorteil. Wenn HSA voll implementiert ist, bringen die Module Vorteile. Bis dahin hat man auch viel Zeit für Optimierung. Mit mehr Geld könnte man die Übergänge von einer auf die nächste Architektur sicher besser gestalten, aber es fehlt nun mal leider an Geld, so muß man halt das aufgeblasene Featureset aus den FX-Kernen auch in den APU Markt bringen.

ich denke aber dass sich AMD mit dieser Sache etwas übernommen hat. Es ist schwer im Rahmen des zur Verfügung stehenden Budgets hier technologisch Maßstäbe setzen zu wollen.

Viel eher gilt es in AMDs Position noch wirtschaftlicher zu denken als Intel, denn wie gesagt, weniger ist manchmal mehr. Ich will nicht sagen dass ich es besser gemacht hätte, mit nichten, aber es waren die Verantwortlichen die zu großer Zahl gehen mussten, die AMD in diese Situation gefahren haben. Auch ein Zeichen dafür dass strategisch einiges falsch lief.

Ich denke Clarkdale hätte man einfach kontern können, genauso ATOM. Das wäre wichtiger gewesen als Mrd. im Bulldozer zu versenken. Genauso musste AMD unbedingt den ersten nativen Quad haben während Intel einen zusammengepappt hat - "Kleinigkeiten" die entscheidend sind.
AMD bietet die meist besser ausgestatteten Chipsätze an... wieso? Das kostet alles Geld und selbst Intel spart hier.
Natürlich ist es als Kunde schön 8x SATA 3 zu haben, aber jeder OEM PC als auch in Unternehmen wäre mit 2x sata 3 und 2x SATA 2 schon ausreichend bedient.

Es ist wie ich finde etwas paradox dass das kleine AMD hier sowohl technologisch als auch bei Ausstattung punkten will, gleichzeitig aber mit AM3 FM1 und FM2 eine Vielzahl von Sockeln fährt und vergleichsweise "günstige" Entwicklungen wie ATOM verschläft.

Mit Bulldozer ist AMD klar "Friss oder Stirb" Taktik gefahren, wenn man sich die Interviews von ehemaligen AMD Mitarbeitern anhört dass stehen einem die Haare zu Berge. Und auch die jetzigen Resultate unterstreichen das Bild. Man hat vielleicht die überlegene Architektur, mit dem meisten Optimierungspotential, aber wo soll das Geld für Optimierungen herkommen?

Das du nicht mehr erwartest weiß ich, aber ich erinnere mich noch an den Ivy-Test zurück. Da gab es auch bei den meisten viel zu hohe Erwartungen und dann gab es enttäuschte Meinungen weil es nur +5-7% zu SB war. Ich glaube bei Haswell wird es ähnlich sein. Viele werden denken: Ah jetzt kommt ne neue Architektur also muß es automatisch mehr Leistung geben als bei nen Shrink. Viele werden eine zweitstellige Leistungssteigerung von 15-20% erwarten/fordern.

hm ja ich denke dass liegt aber daran dass viele dieses TickTock nur auf CPU auslegen dabei hat Intel ja massivst in den GPU Teil Arbeit reingesteckt. Ich würde sagen dass die CPU Seite eher noch parallel etwas optimiert wird, aber bei der neuen Architektur "Haswell" liegt das Augenmerk ganz klar bei Features und GPU. Und übe die CPU / APU betrachtet werdens hier sicher mehr als 20%.

Das Entscheidende sind die Treiber. Hier kann Intel nicht so schnell aufholen. Unter Linux hat man AMD bereits in der Tasche, unter Windows wirds länger dauern. Ich hatte bisher keine Intel GPU wirklich beim Zocken im Einsatz. Ich kann auch nicht sagen wie schlecht die Treiber hier sind (man hört es nur immer wieder) - mich würden dennoch die Fortschritte die Intel hier gemacht hat interessieren, imho finde ich diese fast wichtiger als die Fortschritte bei der Hardware.
 
Zuletzt bearbeitet:
Es gab ja jetzt erst ein Treiber Update für die iGPU von Intel, wo ich kurz getestet habe, was es bringt.
Sachen die vorher bei mir Problem gemacht hatten (grafikfehler in ein paar bestimmten Spielen) wurden behoben. Man arbeitet also daran.
Hatte auch irgendwo gelesen, dass die iGPU von Haswell um 100% gegenüber der HD4000 zulegen soll. Wenn das in etwa stimmt, könnte ich meine HD7770 langsam einmotten (Gelegenheitsspieler).
 
MikelMolto schrieb:
Hatte auch irgendwo gelesen, dass die iGPU von Haswell um 100% gegenüber der HD4000 zulegen soll. Wenn das in etwa stimmt, könnte ich meine HD7770 langsam einmotten (Gelegenheitsspieler).

Die GT3 Ausbaustufe wird es allerdings nicht für Desktopmodelle geben.
 
Krautmaster schrieb:
Das Entscheidende sind die Treiber. Hier kann Intel nicht so schnell aufholen. Unter Linux hat man AMD bereits in der Tasche, unter Windows wirds länger dauern. Ich hatte bisher keine Intel GPU wirklich beim Zocken im Einsatz. Ich kann auch nicht sagen wie schlecht die Treiber hier sind (man hört es nur immer wieder) - mich würden dennoch die Fortschritte die Intel hier gemacht hat interessieren, imho finde ich diese fast wichtiger als die Fortschritte bei der Hardware.

Also ich hab gestern Risen probiert mit meinem Pentium G860 (Intel HD Graphics) 0 Probleme ;)
 
Im Desktop habe ich ja immer noch meine GPU. Bin ja eh der iGPU/APU Gegner bei Desktop, weil ich abgesehen von HTPC/Office den Sinn nicht erkenne.
Bei Notebook wird die GT3 sicher gut abgehen und die Intel Treiber machen mittlerweile schon was sie sollen. Wer da meckert muss schon konkrete Beispiele nennen.

Intel weiß ja auch, das 2 Sachen bei mobilen Geräten extrem wichtig sind und hat sich da auch darauf konzentriert: Stromverbrauch und Grafik.
CPU Leistung ist eh genug da und eine SSD bringt im Notebook immer noch mehr als 20% mehr CPU Leistung.
 
Elkinator schrieb:
es tut mir auch leid das ich da einfach mehr ahnung habe, und genau deswegen bleibe ich dabei das 128MB nicht bringen können!
du wirst sehen das ich recht hatte wenn es die ersten benchmarks mit und ohne den 128MB gibt...


na dann warten wir mal ab ob es eine GT3 ohne 128 MB Cache geben wird bzw ob es diesen überhaupt geben wird.

Wie definierst du "was bringen" + - 10% Performance ? Oder muss es für dich damit es funktioniert doppelt so schnell laufen?

Ich finds klass einfach mal pauschal zu sagen "Ich hab (mehr) Ahnung und weiß, dass die 128MB nichts bringen" - sich mehr zu disqualifizieren war wohl nicht drin oder? :p

Ich erspar mir jetzt den Bogen zu deinem zweiten Satz zu spannen.
 
Zuletzt bearbeitet:
laut den letzten informationen wird es haswell mit und ohne den 128MB geben
ich rechne damit das es bei spielen so wenig bringt das man noch immer nicht vernünftig spielen kann, also unter 5%.

128MB sind einfach zu wenig, da müßten schon etwas mehr texturen rein passen um einen nutzen daraus zu ziehen.
 
Genau deswegen wurde in der Vergangenheit edram in kleiner Größe in Konsolen verbaut. Die Xbox 360 besitzt winzigen 10MB edram. Du darfst versichert sein, dass Intel nie einen 128MB großen edRAM verbauen würde, wenn das nur 5% bringt. Der Kosten- Nutzenfaktor wäre überhaupt nicht gegeben. Bei den ULT Modellen könnte man möglicherweise noch mit dem geringeren Stromverbrauch argumentieren, bei den 47W Modellen jedoch nicht. Du bekommst den Framebuffer locker rein in 64 MB großen edram.

Wo rechnet Intel mit irgendwas? Intel hat sich dazu bisher nirgends geäußert.
 
lass gut sein, er hat Unmengen mehr Ahnung als wir - auch Unmengen mehr Ahnung als das Mrd. schwere Intel Entwicklungsteam. :D

Zurecht darf er jeden somit als "dumm" bezeichnen

Elkinator schrieb:
ja, nach den ganzen aussagen hier halte ich hier sogar sehr viele für sehr dumm!
ich habe argumente gebracht...
 
ich nehme dich schon lange nicht mehr ernst.
intel ist ja unfehlbar...

udn ich bleibe dabei, mit 128MB erreicht man NICHTS...

mal sehen ob man sich hier bei mir entschuldigt, wenn es die benchmarks gibt und ich (wieder einmal) recht hatte...
 
was hat das mit Intel zu tun? Würde AMD die 128 MB verbauen würde ich auch davon ausgehen dass es was bringt o_O

Seit August 2012 dabei aber groß die Klappe aufreißen wie oft man recht hatte ^^
 
Elkinator schrieb:
128MB sind einfach zu wenig, da müßten schon etwas mehr texturen rein passen um einen nutzen daraus zu ziehen.


Diese 128MB dienen nicht als Texture Chache!

Der eDRAM wird genutzt als back buffer, depth stencil buffer und andere render targets.
Nehmen wir mal ein 1920×1080 2× MSAA 32-bits-per-pixel render target, da brauchen wir alleine schon 15,82 MB, dazu kommt noch 32-bit Z/stencil buffer und schon sind 128MB eDRAM sinnvoller als man denkt, da man ja nicht nur ein render target im Speicher haben möchte sondern min. 2.
 
Krautmaster schrieb:
Würde AMD die 128 MB verbauen würde ich auch davon ausgehen dass es was bringt o_O

Seit August 2012 dabei aber groß die Klappe aufreißen wie oft man recht hatte ^^
nein, auch wenn AMD das machen würde wäre meine meinung nicht anders...

es ist ja in jedem forum immer gleich, man unterstellt mir das ich unsinn schreibe und wenn ich im nachhinein recht hatte haben das alle vergessen...
 
Du kannst deine Meinung nicht nachvollziehbar begründen, das ist das Problem bei dir. Du kannst ja mal erklären, weshalb Intel teuren edram verbaut, wenn es laut dir nichts bringt.
 
@Elkinator

wenn du jede Argumentation so fundiert aufbaust wundert mich das ehrlich gesagt wenig warum es in jedem Forum dasselbe ist...
"Es passt nicht der ganze VRam in den 128MB Cache" ist als Argument etwas dürftig.

Wo hat man dich denn erst des Unsinns bezichtigt und wurde später eines besseren belehrt?

Eventuell gibt es ja zwischen "Unsinn" und "wahnwitziger Performancesteigerung" noch ein Mittelding? Wenn der Cache bei 15% Leistungssteigerung in deinen Augen Unsinn ist muss das ja nicht in aller Augen so sein.

Ab wie viel % wäre es den kein Unsinn?
 
von 15% kann man wohl nur träumen.

mir ist es auch total egal ob es in jeden forum so ist,da ich bei technischen aussagen bis jetzt immer recht hatte stört mich das nicht...

und das alles in den ram passen muß hab ich nie gesagt, aber hauptsache du erfindest jetzt etwas.
 
:D lass mich mal eben deine Argumentation verfolgen:

Wahnsinnig stichhaltig und aller meistens geht es um die Größe des Caches. Was also erwartest du wenn nicht dass der ganze benötigte VRam reinpasst? Das ist nämlich in den meisten Spielen dieser Leistungsklasse kaum mehr als 512 MB die laut dir ja mehr bringen würden ^^

Mal abgesehen davon bist du derjenige der ohne Sinn und Verstand ständig parteiisch wird ohne auch nur einen Anhaltspunkt dafür zu liefern.

Erstaunlich wie oft du dich wiederholen konntest ohne auch nur eine stichhaltiges Argument zu liefern.


Elkinator schrieb:
...
bei haswell bekommt die ja einen eigenen L4 cache, dadurch wird sie höchstens langsamer:(
die 128mb ram beim topmodel bringen ja nichts,da passt ja eh keine komplette textur rein und dann ruckelt es erst wieder...

aber intel hat ja schon oft genug bewiesen, dass sie von GPUs keine ahnung haben^^

Elkinator schrieb:
ich glaube aber nicht das intel überhaupt ein problem mit der bandbreite bei der GPU hat, AMD hat ja jetzt ca. den selben durchsatz und die GPU ist viel schneller.
intel muß mal dafür sorgen das die GPU überhaupt die bandbreite ausnutzt.
ich glaub jedenfalls nicht das der intel weg richtig ist, es erscheint mir unlogisch das man eine zusätzliche cachestuft für die GPU einführt.
...
und bei einem spiel passt keine ganze textur rein, also hat man das problem mit dem durchsatz ja trotzdem.

Elkinator schrieb:
...der cache der GPU wird trotzdem nichts bringen, bei spielen kann das höchstens den zeitpunkt bis es ruckelt etwas verzögern.
aber wart es einfach ab, wirst dann eh sehen das ich recht habe und die intel GPU bei spielen weiterhin gegen AMD den kürzeren zieht.
...
nein, das meine ich schon so.
bei einem spiel bringen so mickrige 128MB nichts, wirst du eh sehen wenn es erste benchmarks gibt.
der cache kann nur kurzfristig die bandbreite erhöhen, bei einem spiel reicht das aber nicht und der cahce wird dann zu langsam mit daten gefüttert.
das hätte nur sinn wenn der cache etwas viel großer wird.
...
wenn man logisch darüber nachdenkt merkt man aber das es bei spielen nichts bringen kann, der cache kann den durchsatz ja nur kurz erhöhen.
bei einem spiel reichen mickrige 128MB nciht lange aus und dann hat man wieder das problem das der ram die daten nicht schnell genug liefern kann.
...
ich glaube schon das die GPU schneller wird, aber eben nicht wegen dem Cache,...

Elkinator schrieb:
das hat bei einer GPU aber keinen sinn!
da wird es bei einem spiel trotzdem ruckeln weil kaum immer die richtigen daten in dem kleinem cache sein werden.
bei einer CPU kann man das etwas vorhersehen, aber bei einer GPU geht das eben nicht so gut und da sind es viel größere datenmengen.
...
aber ihr werdet das dann eh bei benchmarks sehen, bei spielen wird das nichts bringen.
...
der einzige richtige weg ist eben es wie AMD zu machen und die GPU richtig zu integrieren, das sie direkt auf die speicherbereiche der CPU zugreifen kann und nicht wie bei intel alles kopiert werden muß was nur dne datentransfer in die höhe treibt.

Elkinator schrieb:
und da kannst du sicher auch benchmarks mit und ohne dem cache vorlegen?
...
aber bei diesen konsolen sind die texturen auch deutlich kleiner..

Elkinator schrieb:
der vergleich alleine ist schon schwachsinn.
bei einem CPU kann man etwas voraussahen, das geht aber bei der GPU kaum...
und ja, man hat bei intel schon gesehen das sie bei GPUs keine ahnung haben.

Elkinator schrieb:
wenn es jemanden gibt der dafür mehr zahlt schon.

es ist eben sehr fraglich ob mickrige 128MB cache bei einem aktuellem spiel etwas bringen werden.

Elkinator schrieb:
...
eigentlich sollte man doch erkennen das man mit nur 128MB cache bei einer GPU nicht weit kommen kann, das ist einfach zu wenig.
...
ja, aber zu wenig...
wie soll das einbrüche bei einem spiel verhindern?
der treiber kann ja schlecht abschätzen welche texturdaten man brauchen wird, deswegen haben ja grafikkarten so viel speicher, weil da immer alles drinnen liegen soll/muß.

Elkinator schrieb:
warten wir es mal ab, ich gehe bis jetzt trotzdem davon aus, das es fast nichts bringt und man trotzdem nicht besser spielen kann.
...
und in dem cache deiner geforce wird keine textur gespeichert, der cache von intel soll aber anscheinend als spiecher verwendet werden, da kommen also texturen rein.

Elkinator schrieb:
du wirst schon sehen das ich recht habe.
ein treiber kann darauf nicht optimiert werden, in den speicher passt einfach nicht die erforderliche texturmenge rein, also ruckelt es trotzdem.

der treiber kann nicht wissen in welche richtung ich in einem spiel laufen werde, aslo kann er nicht immer die richtigen daten cachen, daraus folgt dann ruckeln.

der cache würde vielleicht etwas bringen wenn er so 512mb hätte, aber 128mb bringen garantiert nichts.

Elkinator schrieb:
das kann bei nur 128MB speicher nicht funktionieren, wirst du schon sehen wenn es benchmarks gibt.

Elkinator schrieb:
bei der karte hat man wohl mehr als 128mb speicher?

Elkinator schrieb:
mit mehr speicher kann man aber halbwegs sinnvoll daten cachen, mit 128MB geht das einfach nicht.
und wenn der durchsatz bei ddr1600 hinten und vorne nicht reicht bringt der 128MB cache im spiel auch nichts, es kommt zu einbrüchen weil im cache keine daten sind.

du wirst eh bald sehen das ich recht habe...
Elkinator schrieb:
128MB sind einfach zu wenig, da müßten schon etwas mehr texturen rein passen um einen nutzen daraus zu ziehen.

Elkinator schrieb:
intel ist ja unfehlbar...

udn ich bleibe dabei, mit 128MB erreicht man NICHTS...
 
Zuletzt bearbeitet:
Zurück
Oben