Test Test: Intel Graphics HD 4000 & 2500

WaCh schrieb:
Zitat aus dem Fazit: "Positives gibt es bei der Bildqualität zu berichten" - was hab ich gelacht :lol:
Auch bei Skyrim sieht einiges nicht so koscher aus.

Den Fehler haben wir im Text erwähnt, den du ja offensichtlich nicht gelesen hast.
Dieser (es fehlt eine Qualitätseinstellung im Spiel) ist aber unerheblich für die AF-Betrachtung. Und Unschärfe beim AF ist nichts schlimmes ;)

Und AMD hat den AF-Alogorithmus beim VLIW4 Trinity sicherlich nicht geändert, da die GPU-Architektur absolut gleich geblieben ist.
 
Danke für den Test!

Mich interessieren da aber noch zwei Dinge, die wohl schon öfters (in anderen Threads) erwähnt wurden:

#1 Warum baut Intel nicht in die kleinen CPUs die große IGP ein? Leute die sich die "dicken" Quads kaufen, vor allem die K Modelle, werden doch wohl ohnehin auf eine dedizierte Graka setzen. Für einen HTPC oder herkömmlichen Office-PC, bei dem keine diskrete Graka mehr vorhanden ist, würden daher doch viel mehr davon profitieren. Wird sich das mit den i3 ändern?

#2 Vielleicht wurde die Frage schon endgültig geklärt, habe dazu spontan allerdings keine Antwort finden können: Ist es nun möglich das Signal der ded. Graka durchzuschleifen, so dass ich im 2D Betrieb nur die IGP nutze, die Graka somit im Idle ist bzw. bei Southern Island in den ZCP Status versetzt wird und bei Bedarf, sprich Spiele, wieder aktiviert wird? Wird dazu der Lucid Virtu Chip benötigt? Kann der das jetzt? Oder war der lediglich dazu da, ein asymmetrisches CF/SLI aufzustellen?
 
BDs/mkvs sind selbst für alte Clarkdales kein Problem ohne DXVA. Über 20% Cpu kommt man da selten. Mit DXVA ~0-2% (bei XBMC, mit VLC etwas höher)
 
KainerM
Du bist echt amüsant mein Freund. Genauso werden llano meist mit Asus Board getestet. Die Boards was am verschwenderischen sind
Eine weitere Frage noch.
. Toll. 53W. Celeron G keine 30 W aus der Box raus. Pentium G keine 40 W original. Plus - die kann man auch noch gut undervolten.
https://www.computerbase.de/2011-08...intel-core-i3-2100/14/#abschnitt_undervolting
Hier hast du das undervolting
https://www.computerbase.de/2011-08...-core-i3-2100/12/#abschnitt_leistungsaufnahme
hier hast du verbrauch Idle
https://www.computerbase.de/2011-08/test-amd-a6-3650-vs-intel-core-i3-2100/3/#abschnitt_cpubelastung
Verbrauch bei der Wiedergabe von Filmen

Also kommen deine Werte auch mal mit dem Einsatz von der igp ?? oder redest du da immer von Prozessoren mit dgpu ???
Wie wäre es mal mit einen Ebenwürdigen vergleich, oder stellst du gerne alles so um damit Intel gut dasteht ???
Ganz einfach, mit einem Gigabyte Board kann man sogar den Llano dazu bringen im idle und DVD schauen nur um die 10 watt zu verbrauchen. Sicherlich ist Intel vllt ein paar watt ab und zu besser, aber ja deshalb braucht man gleich einen doppelt so fetten kühler ???

Weiteres, ich habe Monate damit verbraucht, das Internet zu durchstöbern und zu planen, und weiß schon ziemlich gut was geht oder nicht ? Der IB-Pentium ist zwar bei single Thread Anwendungen dem Llano überlegen, sonst hat er eher das nachsehen gegenüber dem Llano.
Und wenn ich ein HTPC kaufe (Meiner besteht ja momentan aus alten Beständen) dann werde ich fix keine extra Grafikkarte haben wollen... welche ja im Gehäuse unter der TV-Karte ein richtiger Hotspot ist...
Ich hab übrigens genug BSPe, aber ich hab wenig lust diese zu posten damit du dort genauso die gleiche Verblendung machst.

Pico-PSU
Es gibt genug Systeme die mit einer Pico-PSU laufen (120-150 watt).
Weiteres kann ich dir sagen, es wäre echt peinlich wenn der IB-Pentium im Test nicht viel sparsamer wäre, dafür aber das weit aus schlechtere Spielerlebnis bietet. Aber er braucht nun mal einen zweiten, wie manch anderer hier, um auf das gleiche Niveau zu landen.

Btw wenn du schon mit tollen Link von HT4u kommst, die haben auch noch einen tollen Link für dich
http://ht4u.net/reviews/2011/amd_a8_3870k_llano_apu/index13.php

auf die gleiche Leistungsaufnahme wie die doppelt so schnellen Ivy Bridge CPUs.
Und fast doppelt so langsamen Grafik, was mir wichtiger ist, wenn ich am HTPC games auf 1080p spielen möchte

4 Jahre alter Core 2 Quad in 45nm ist schneller
Wirklich zeig mir mal den q6600 ich wetter der ist langsamer o0 Auchso wieso, ja taktet nur mit 2,6 ghz, wie wäre es mit einem der mit 3 ghz taktet
https://www.computerbase.de/2011-06/test-llano-cpu-leistung/11/#abschnitt_spiele_hohe_aufloesung
Warte mal hier ist scheinbar Intel Core 2 Quad Q9550, 4C/4T, 2,83 GHz, 45 nm auch langsamer. Bei dem sagt man aber immer,ein echt krasses Teil, da braucht man sicherlich nicht aufrüsten...
Aber ja, so ist es halt mit der Doppelmoral. Sobald man anonym ist kann man ja sagen was man will, stimmts :freak:

Wie gesagt, Trinity wird da hoffentlich nachbessern - ich hab ja selbst nichts davon, das Intel momentan tun und lassen kann, was sie wollen.
Verstehe dich nicht, du bist ja der Meinung, dass niemand eine APU benötigt.

Aja noch zum Schluss, ich hab wenig Lust Videos auf meinem Fernseher zu bearbeiten, aber falls man das mit Llano möchte, ist auch das möglich, bestimmt schneller als mit einem Pentium...

jimknils
Das macht Intel ja eh. Die ersten Generationen des i3 hatten noch die schwächere igp, passende Modele folgten dann. Wenn du bsp ins Notebook-Segment schaust, wirst du sehen dass hier meist sogar nur die stärkste igp Variante vertreten ist, außer halt bei den Pentium und Celerons.

Aber ja, der neue IB i3 mit einer HD 4000 ist gegenüber einem A6 3650 wahrscheinlich die bessere Wahl !!!. Denn das Argument bessere Grafik zieht nicht, eher der Preis. Was den Verbrauch angeht usw ist noch nichts bekannt. Schätze der wird sicherlich effizienter sein als i7 und i5.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
die perfekte HTPC CPU dürfte bald ein 35€ Celeron @ ~2,5 - 3 Ghz sein mit HD2500 und vermutlich ~30W Verbrauch auf ITX Intel Board mit Full Boot in <13 Sekunden von SSD und keinen 15 W idle Verbrauch ;)

Nö. Ein ITX Board mit E-350 und SSD bootet genauso schnell, bietet bessere Bildqualität (AMD Steady Video, um nur mal ein Argument von mehreren zu nennen ;)), verbraucht weniger und man kann sogar XBOX360-Ports vernünftig damit zocken. Und ist in der Anschaffung billiger.

Mein HTPC braucht im laufenden Betrieb ~40 Watt. Mit zwei Festplatten, einer SSD und drei DVB-S2 Karten. Wobei die TV Karten über die Hälfte des Stromverbrauchs hervorrufen.
 
IB liefert genau das was zu erwarten war. Allerdings finde ich die Strategie von Intel suboptimal.

Wer einen Highend PC bastelt, der kauft sich einen der großen IB Prozessoren und wird zusätlich eine GPU kaufen, selbiges gilt für CAD und ähnliche Bereiche. Wer viel CPU Power braucht, der nutzt die integrierte GPU der großen IB und kauft eben keine Graka, weil die Grafik letztenendes uninterressant für denjenigen ist.
Daher macht es mEn nur wenig Sinn in die großen IB Prozessoren die HD 4000 einzubauen, stattdessen wäre es optimaler die Diefläche für Cache/Cores ... zu verwenden.

Dahingegen sind die kleinen IB Modelle vorallem interessant für Office PCs, und bedingt zum Spielen geeignet zumindest mit ner HD 4000. Allerdings werden dort wiederum gerne die HD 2500er GPUs integriert.

Für kleine Allinone (Spiele) PCs sind allein schon was den Preis angeht die APUs von AMD optimal, da wird keine pure Prozessorpower benötigt, sondern ein möglicht optimales System das günstg zu haben ist. (Llano war gut, Tinity ist besser, und spätestens mit den 28nm Kaveri wird AMD ein lokales Optimum erreicht haben)

Ansonsten bin ich mit meinem 2500k absolut zufrieden, ein Umstieg auf Ivybridge würde nur aus Stromsparsicht Sinn machen und das auch nur unter Vollast mit UV, was selten genug vorkommt. Aus Sicht des Preises spricht für das Neu Anschaffen eines PCs jedoch alles für IB. (Außer günstige Allinonesysteme, siehe oben, -> Trinity)

Edit: Im Übrigen wandelt sich die IT welt gerade etwas, mit OpenCL und CUDA spielen die iGPUs in der Zukunft eine wichtige Rolle. Kann durchaus sein, dass eine APU in bestimmten Anwendungen den CPUs davon läuft. (Bei AMD dürfte das mit Einführung der 28nm Fertigung und der OpenCL Leistung der GCN, einen extremen Unterscheid zu Intel machen, besonders wenn die Leistungssteigerungen dr iGPUs so weitergehen wie mit IB/Trinity)
 
Zuletzt bearbeitet: (Um Zukunftsausblick erweitert)
pipip schrieb:

naja, da könnte man dann wieder damit kommen:

idlenrjig.jpg


;) aber ja, ich bin mal gespannt was Trinity draus macht, ich glaube ein UV Llano könnte durchaus gleich gut oder gar besser dastehen.

Swarlos schrieb:
Nö. Ein ITX Board mit E-350 und SSD bootet genauso schnell, bietet bessere Bildqualität (AMD Steady Video, um nur mal ein Argument von mehreren zu nennen ;)), verbraucht weniger und man kann sogar XBOX360-Ports vernünftig damit zocken. Und ist in der Anschaffung billiger.

Mein HTPC braucht im laufenden Betrieb ~40 Watt. Mit zwei Festplatten, einer SSD und drei DVB-S2 Karten. Wobei die TV Karten über die Hälfte des Stromverbrauchs hervorrufen.

;) zeig her, 12 Sekunden will ich sehn...
Keine Sorge, ich hab (aktuell) zwei Zacate hier, einen in einer Zbox Nano mit als auch ein ASUS E-350 ITX ebenfalls an SSD. Beide kommen bei Weitem nicht an ein Intel Board mit kleinem 35€ Celeron 530 ran (beim Boot zB), der bei 2x2,4 Ghz weit mehr Dampf hat als ein Zacate und die Kombination ist auch nicht wirklich teurer.

Steady Video braucht man bei keinem HTPC.

Die guten Boards bieten auch bei Zacate einen guten kurzen Bios Post, aber kompiliert man zb unter Linux mal ein paar Anwendungen merkt man, dass selbst ein SU2300 @ 2x1,2 Ghz den Zacate abzieht, dabei etwa denselben Verbrauch hat und die uralt GF9300 die CPU bei Full HD stärker entlastet als die GPU des Zacate.

Zacate wäre/ist ein super Setting fürn HTPC (vorallem preislich), unter Linux mit XBMC reicht die Leistung ganz gut aus, unter Windows sind die Treiber natürlich auch weiter.

Was BQ angeht wirst du kaum einen Unterschied feststellen, zumindest nicht was Qualität angeht. Mein Zacate scheint schwarz an HDMI eher als dunkles Grau auszugeben, das bekommen Nvidia / Intel out of box einen Tick besser hin. Zudem scheint Zacate recht anfällig auf Temperatur, bei mir beginnt das Bild dezent an zu "krieseln" bei hohen Temperaturen und recht langem HDMI Kabel, aber selten und auch nur im XBMC Menü der Fall.

Was Treiber angeht steht es ganz klar

Nvidia -> weit abgeschlagen Intel, dann AMD... leider. Seit XvBA läuft die Sache wesentlich besser, aber nach wie vor geht kein VA Deinterlacing und nur x264 bis L4.0 was bei manchen Filmen zu Artefaktbildung kommt. Auch 24p ist nicht ganz reibungslos.

Wer will sollte mal Openelec nightly Build für Fusion testen, läuft schon recht gut und schnell, topaktuell und in 5 min aufgesetzt.

Zacate ist gut, keine Frage, aber ich muss es mit meinem etwa gleich schnellen Zotac ION -P mit SU2300 vergleichen. Gute, ITX Zacates kosten ~130€ (gut = SPIDF und am besten passiv / lautlos)
-> das MSI war nicht lautlos (hatte ich auch hier) - das kleine ASUS hat kein HDMi und kein SPIDF, wirklich vergleichbar ist nur das Zotac passiv + das ASUS E35M1-I Deluxe - beide haben in etwa die Ausstattung des SU2300 + Nvidia basierten Zotac ION ITX P das schon ausläuft, kaum mehr verfügbar ist aber einen wesentlich runderen Eindruck macht und mit selbem Verbrauch, mehr CPU Leistung und niedriger CPU Load @ 1080p daher kommt (lautlos dank dem guten Lüfter und super Regelung).

genauso hatte ich das hier Zotac D2700-ITX WiFi Supreme bereits hier und auch auf Herz und Nieren getestet, an sich wirklich gut (und auch merklich schneller als Zacate - Singelcore ähnlich, dank 4 Threads aber beim kompilen schneller + sehr geringe 1080p Load.

Problem bei dem Board, entweder Treiber Problem oder mangelhafte CPU - GPU Anbindung, die zu µRucklern in der XBMC GUI führen. (selbes Phänomen aber 10 x stärker hatte ich bei einer PCI GT430).

;) genug Detail. Wie du siehst gibts wenig Hardware die nicht in meinen Händen war :D

-> ich halte die Kombination von ~35€ IB Celeron + ITX Intel Board für sau schnell und effizient, es ist aber im vergleich zu Trinity massiv davon abhängig wie sich die Intel / AMD Treiber unter Linux entwickeln.
 
Zuletzt bearbeitet:
Ein mehr oder weniger großer Makel ist beim Intel Treiber allerdings das Thema underscan. Habe ich keinen Fernseher, der bestimmte Skalierungseinstellungen zulässt, dann gibt es nur die Möglichkeit blind im Inteltreiber mit einer benutzerdefinierten Auflösung umher zu pfuschen. Habe ich mir diese mühsam eingestellt, werde ich von jedem Fullscreen Spiel wieder überrascht, wenn das in die gerade Auflösung springt. Und ich sehe nur noch abgeschnittene Ränder.

Im AMD Treiber fasse ich den Regler an und ziehe mir das Bild an den Rand und ich sehe in Echtzeit wo das Bild landet! Und das wars!

Mein neues supertolles Nvidia Optimus Notebook nervt mich gerade deshalb entsetzlich. Würde mir also niemals ein Intel only Gerät als HTPC anschaffen. Es sei denn ich kaufe mir extra deshalb einen neuen Fernseher.
 
das kann ich so gerade schlecht nachprüfen, ich denke du beziehst dich auf einen Windows Treiber. Müsste mir anschauen wie es da mit neustem Treiber aussieht, wobei ich nie ein Problem hatte beim TV. Und unter Linux hat genau die AMD GPU das Underscan Problem (Ubuntu) während Intel / Nvidia an meinem TU mit "Just Scan" genau passen.

Ich denke unter Windows läuft AMD wirklich gut. Kann mich bei meiner HD6950 auch nicht beklagen, bis auf diverse DP Probleme bzw das TriHead auch mit DP bei mir nicht geht.

iDR sollte das jeder Tv auch korrigieren können.
 
Es ist ja auch ein TV Problem. Der Intel Treiber wirft das Bild 1:1 raus, nur der TV korrigiert daran herum(overscan). Deshalb gibt es gerade die underscan Funktion im Treiber. Nur dass die bei Intel eben besch... umgesetzt ist, was dann auch gleich sämtliche Optimus Lösungen mit herunter zieht.
 
Krautmaster
Kann genauso das effizienteste Board raussuchen, und versuchen eine ähnliche Ausstattung zu gewehrleisten ^^
Doch wie schon oft erwähnt. IB ist CPU technsich sicherlich auf einer anderen Ebene. Doch spielt bei einem PC nicht nur die Hardware eine wichtige Rolle, sondern auch die software, die diese betreibt. Eine APU in der Zukunft (was ja erst richtig im kommen ist. llano ist ja die erste Generation) Aufgaben mit (quasi) nicht traditionelle Mitteln berechnen und das eventuell auch sehr effizient.
Ob Intel ähnliches vor hat wird man erst bei IB-Nachfolger sehen. Der ja sogar einen 64 MB-Cache für die große igp ausbauten einführen könnte. Ähnlich wie es AMD damals bei der Xbox GPU gemacht hat.
Wenn man zurück denkt, hat alles (bei AMD zumindestens) mit der igp am MB begonnen (Phenom I -Zeiten), die HD Filme beschleunigen konnte.
Es werden seitdem immer mehr Techniken in die CPU eingeführt.
Der UVD und Stromspartechnik ist ja der Grund wieso llano so effizient ist, nicht die CPU performance.
Also versteht man mich jz ?? Der gleiche Grund wieso man in Digital Prozessoren FET einbaut ect.

Das ist was AMD meint, wir werden nicht mehr traditionell gegen Intel antreten, das heißt, rein auf CPU leistung versuchen den i7 zu schlagen. Es gibt nun mal viele Arten ein Problem zu lösen.

Was Trinity angeht, FM1 ist ja schon gegenüber AM3+ sehr effizient. Ob FM2 effizienter ist, oder mehr Verbraucht ist abzu warten.
Doch kann man sagen, Llano ist in seinem Gebiet betrachtet (Multimedia und usual things) einfach gut.
Ich finde es einfach nur lächerlich dass man das nicht zugeben will und dann die Nische die ja existiert verleugnet.
Dass ein 22nm IB quad einen Llano in CPU Anwendung vernichtet bestreitet doch keiner... Doch sollte man in betracht ziehen, dass es die Möglichkeit gibt, das AMD in Zukunft vieles mit igp-Power kompensieren könnte.

Aber ja um was es mir bei den Links ging KM, weiß nicht ob du davor mitgelesen hast. Aber es ging um die Behauptung dass man Llano nicht in einen HTPC einbauen kann... Zumindestens leise. Das stimmt einfach nicht.
Denn bei den Gigabyte Boards sieht man, dass man sehr viel undervolten kann. Somit ist es technisch und sogar sehr günstig machbar.
 
Zuletzt bearbeitet:
@CB

Unterstützt Intel immer noch nicht Opencl auf der GPU? Oder ist einfach ihre sw noch nicht so weit?
 
@pipip

sicher, aber rein Multimedial wird da nun wenig dazu kommen. Der UVD ist das wichtigste Instrument GPU seitig - die GPU Power an sich muss die GUI flüssig darstellen, bei einem HTPC, mehr nicht.

UVD sagt es ja selbst, es ist prinzipiell auch wieder nur ein spezieller GPU Bereich (muss gar nicht die GPU selbst sein) die eben sehr effizient Full HD Material beschleunigt.

Wie du richtig bemerkt hast liegt die Effizienz heute mehr an der Plattform an sich als an der CPU / GPU.

FM1 ist fast auf 1155 Niveau, und der 1155 ist fast auf Zacate Niveau und teils darüber wenn man sich die idle Werte anschaut. Und mit <40W Load bewegt man sich ebenfalls schon fast auf zacate Niveau denn von 18W load auf 30 W ist jetzt nicht der wiesen Sprung.

Dennoch, genau da werden die Trinitys mit 17W interessant, diese wird man wohl hoffentlich eher auf ITX finden als 17W ULV von Intel, am besten festverlötet.

Ich nehme an dass letztere aber gerade was die Effizienz bei zB 1080p besser dastehen, genauso wäre QuickSync eine sehr schnelle & effiziente Methode Material zu konvertieren.

Diese Funktionen bezeichne ich weniger als GPU... es sind schlicht eigene TeilProzessoren die auf diese eine Aufgabe spezialisiert sind. Sonst bräuchte es das Worte UVP garnicht... bei llano wird sicher nicht die ganze GPU rechnen um einen 1080p auf den Schrim zu bringen. Dennoch schafft es Intel / Nvidia besser die CPU Leistung gering zu halten. Zumindest wenn ich einen kleinen Celeron mit Intel HD oder den SU2300 + GF9300 (An sich ja Krücke) mit dem Zacate vergleiche.

1080p - SB Celeron ~ 2-5% -> SU2300 ~ 5-10% -> Zacate ~ 25-35% beim selben Streifen.

So packt Zacate nicht wirklich VA Deinterlacing und HDMI 1.4 mit 3D.

Edit:

Intel hat bei Windows Aufholbedarf was Treiber angeht (ist aber auf gutem Weg, sie wissen dass sie dort viel Nachholbedarf haben)...

Bei Linux haben sowohl Intel als auch AMD Aufholbedarf... für mich siehst aber klar so aus, dass Intel + die Community z.Z. weit mehr Energie reinsteckt als AMD mit ihren Treibern.
So kommt mit dem 3.2er Kernel und den Treibern in Ubuntu 12.04 wohl EDID Erkennung, VA Deinterlacing (GPU Deinterlacing - interessant bzw Muss für TV, zZ beta) ... zudem beschleunigt der Intel Treiber bereits:

vainfo: VA API version: 0.32
vainfo: Driver version: i965 Driver 0.1
vainfo: Supported profile and entrypoints
VAProfileMPEG2Simple : VAEntrypointVLD
VAProfileMPEG2Main : VAEntrypointVLD
VAProfileH264Baseline : VAEntrypointVLD
VAProfileH264Main : VAEntrypointVLD
VAProfileH264High : VAEntrypointVLD
VAProfileVC1Simple : VAEntrypointVLD
VAProfileVC1Main : VAEntrypointVLD
VAProfileVC1Advanced : VAEntrypointVLD

während es bei AMD so aussieht:

libva: libva version 0.32.0
Xlib: extension "XFree86-DRI" missing on display ":0.0".
libva: va_getDriverName() returns 0
libva: Trying to open /usr/lib/dri/fglrx_drv_video.so
libva: va_openDriver() returns 0
vainfo: VA API version: 0.32
vainfo: Driver version: Splitted-Desktop Systems XvBA backend for VA-API - 0.7.8
vainfo: Supported profile and entrypoints
VAProfileH264High : VAEntrypointVLD
VAProfileVC1Advanced : VAEntrypointVLD
 
Zuletzt bearbeitet:
WaCh schrieb:
Zitat aus dem Fazit: "Positives gibt es bei der Bildqualität zu berichten" - was hab ich gelacht :lol:

Suche den Fehler:
[...]

Auch bei Skyrim sieht einiges nicht so koscher aus.

OMG, wenn man keinen Schatten berechnen muss, ist man natürlich auch schneller.

=> Dicker dicker negativ Punkt..
 
genauso wäre QuickSync eine sehr schnelle & effiziente Methode Material zu konvertieren.
Bei Trinity heißt das gegenstück
Video Codec Engine (VCE)

Was Software angeht
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1335117289
Mit diesem Tool erleichtert AMD den Entwicklern erheblich ihre Arbeit bei der Programmierung von heterogenen Systemen mit Hilfe der OpenCL-Plattform.

Das Problem was ich angehen möchte ist folgendes. Die igp wird hier im Forum nur als integrierte GrafikProzessor gesehen. Doch dabei ist die GPU in der APU weit aus mehr.
llano ist nun mal der erste Schritt, und AMD ist nicht gerade finanziell gestopft dass man schon ein Fertiges Konzept an den Mann bringen kann, außerdem hätte man wahrscheinlich das Potential gar nicht ausgeschöpft können, wenn die Software zu weit hinten ist.

Somit ist es keine dumme Idee schritt für schritt mit der Software auf den Markt zu kommen.
Trinity wird wieder ein schritt mehr APU sein.
Naja abwarten bis man die IGP mal als Co-Prozessor betrachtet.
Man sollte nämlich bedenken, Llano und Trintiy verwenden noch VLIW was nicht so flexibel ist wie die neue Radeon Architektur. Somit ist die Vorstellung dass die igp einige Aufgaben macht die sonst die CPU übernimmt deutlich schwerer.

naja ich bin gespannt ob Intel die igp behält xD ich bin immer noch fest am glauben dass Intel die bessere Fertigungstechnik nützt (sind ja GF deutlich voraus) und eben das Konzept ManyCores verwenden werden. Sonst würde es ja keinen Sinn machen dass sie da immer noch forschen oder ?

So packt Zacate nicht wirklich VA Deinterlacing und HDMI 1.4 mit 3D.
Interessant wäre es zu wissen, ob es sein Nachfolger schafft 2.0
Und ob es Celeron geben wird, die das schaffen :P der Celeron SB mit 1,6 ghz, hat sich ja sehr gut geschlagen, hab ich zu mindestens in Erinnerung ^^

ONH
https://www.computerbase.de/2012-04/test-intel-graphics-hd-4000-und-2500/10/#abschnitt_gpucomputing
Doch wie schlägt sich dort der Ivy-Bridge-Prozessor? Denn anderes als der Vorgänger kann dieser OpenCL 1.1 und DirectCompute auf der GPU nutzen.
 
Zuletzt bearbeitet:
Das Battlefield 3 auf der HD4000 besser läuft als mit meiner 9600M GT -.-"

Mfg
JeverPils
 
pipip schrieb:
Bei Trinity heißt das gegenstück VCE.
VCE hat derzeit ein "kleines" Problem: Es iirc weder Treiber geschweige denn Software dafür.

pipip schrieb:
Was Trinity angeht, FM1 ist ja schon gegenüber AM3+ sehr effizient. Ob FM2 effizienter ist, oder mehr Verbraucht ist abzu warten.
What? Die Llano sind CPU-seitig in Sachen Perf/Watt nicht ganz so mies wie ein FX, aber "sehr effizient" sind sie im Vergleich nicht.
 
y33H@
Naja da bei den APUs wesentlich mehr integriert ist als bei den FX, ist die Plattform deutlich effizienter.
Hat auch Gründe wieso die Idle Werte beim Llano geringer ausfallen als bei Zambezi.
Was ich meinte ist, von FM2 ist noch nichts bekannt. Vllt weißt du schon was, ich als normaler User aber nicht.

Dass es für VCE noch keine Software gibt ist mir bekannt. Ich hab angenommen, dass es aber nach der Einführung von Trinity ändern kann. Immerhin arbeiten bei AMD auch keine Zauberer oder ?
Somit bleibt die Aussage bestehen, implementiert ist sie ja.
 
Zuletzt bearbeitet:
Auf den Chip gesehen ist ein Llano im 2D nicht nennenswert sparsamer als es ein FX oder SNB oder IVB ist - die haben hier alle um die 3 bis 5 Watt; die Wandler außen vor alle eher um die 2 Watt.

Keine Zauberer? Nein. Aber die VCE wurde im Falle der HD 7970 bereits Dezember 2011 vorgestellt, nun haben wir fast Mai 2012 - also mal eben fünf Monate später. Quicksync läuft seit dem Launch von SNB im Januar 2011 (etwa mit Media Espresso).
 
Zurück
Oben