News Spezifikationen erster „Richland“-APUs genannt

Gut gut, kann mich nicht beklagen, was die neuen APUs angeht. Wird wohl dann ein 6700 und mit Kaverie wieder ersetzt werden. Da man ja die gleiche oder etwas bessere Leistung als mit dem 5800k erzielt und das bei geringerer Leistungsaufnahme (ja verdammt! diese Scheiße heißt Leistungsaufnahme und nicht Verbrauch!!!!! Wann geht das endlich in eure Köpfe rein? Verbrauch(Ws) = Leistungsaufnahme(W) * Zeit(s)). Auch finde ich es ganz angenehm, dass die TDP-Einstufung "überarbeitet wurde" und wie Pipip hoffe ich ja auf einen Athlon auf Basis des 6700 mit 65W TDP-Einstufung. Warum ich so auf der TDP-Einstufung rumreite? Weil das auch alle Intel-Jünger und AMD-Hasser tun, immer wird geschrieen "Öh die TDP ist so hoch." Und dann wird ja noch TDP mit Verbrauch gleichgesetzt und die Leistungsaufnahme ist ja sowieso der Verbrauch. Achja und ganz vergessen, jeder PC läuft 24/365 auf 100%....:stock:

AMD sollte sein Marketing bzw. seine Aussagen etwas umarbeiten. Es wird ja damit geworben, dass 10-15% Mehrleistung erreicht wird. Wären die Leute vom AMD-Marketing allerdings schlau, dann würde man damit werben, dass man die Gleiche Leistung bei nur 65% des Verbrauchs gegenüber zum Vorgäng hat. Klar ist die Differenz bei der Leistungsaufnahme nicht so hoch und man nimmt einfach die 65W TDP zu 100W TDP, aber das rafft der doofe 0815-Käufer sowieso nicht, wenn den hier im CB-Forum ansässigen "PC-Experten" noch nichtmal der Unterschied zwischen Leistungsaufnahme und Verbrauch geläufig ist.

Elkinator schrieb:
naja, gegen einen i5 quad schaut es da halt blöd aus, aber bei spielen bringt das zusätzliche modul dann eh nichts.

die geringe IPC ist halt leider bei spielen das problem:(

Warum ein A10 mit einem I5 mithalten können soll, ist mir natürlich ein Rätsel. Ihr Leute werdet immer unverschämter! Erst wird rumgeschriehen, dass AMD super scheiße ist und zu garnichts taugt (was vll. zu Teilen stimmen mag). Dann wird rumgeschriehen dass diese Scheiß-Produkte auch noch zu teuer sind und man sie ja geschenkt nicht nehmen würde (was natürlich ziehmlich dumm wäre). Und jetzt wird gefordert, dass eine 100€ APU (sowohl Kosten für CPU + GPU) eine 160-200€ CPU abzieht, wenns wenigstens um das eigentliche Konkurenzprodukt (FX-Prozessoren) ginge, aber nein! Sonst ist alles gut ja?

Und dann wieder diese leidige Diskussion "Wääähhh AMD is zu scheiße zum Spielen!!!11elf". Hier ein Test - A10 vs. i5 mit HD7870 in Spielen. Test
Man sieht also dass die höhere IPC des Intels mit unter auch nichts bringt und mal ein zusätzliches Modul was bringen könnte. Ganz davon abgesehen wo bei im Schnitt vll. 20% Mehrleistung (geht immer noch ums Spielen) Mehrkosten von 50%-100% gerechtfertigt sind, dass muss man mir auch erstmal schlüssig erklären.
 
Zuletzt bearbeitet:
@Elkinator

was ist bei dir eine "ganze Textur"?

Sofern Intel mit der Haswell GT3 auf GT650M Niveau agieren will dann müssen sie da definitiv die Bandbreite im Blick haben.

Ich denke dass weder du noch ich das für "idiotisch" halten können, bei dem Budget un Personal das intel fährt wird der Cache sofern er kommt schon seinen Grund haben, und diesen nicht zu kurz. Intel ist was so Zeugs angeht eigentlich sehr auf Sparflamme - heißt wenn es nicht wirklich gebraucht wird werden Kosten gespart und mögliche Zusätze gern gestrichen.

Das zeigt sich schon in der Ausstattung ihrer Chipsätze (2x SATA II genug...) oder an dem Clarkdale GPU + CPU Package. Bei Intel muss der Weg selten perfekt sein, aber möglichst effizient bezüglich Kosten/Nutzen.

Es passt nicht in Intels Philosophie und Budget mal eben sinnfreie Komponenten zu verbauen.

Und mit so Aussagen wie "da passt keine ganze Textur rein" disqualifiziert man sich eher ;)

Aber BTT

@Schu3

naja, CPU seitig limitiert der A10 schon ab und an. Aber für nen GamingPC als CPU only ist er auch nicht gedacht. Die APU kommt ja einem Allrounder gleich und kaum jemand dürfte diese APU mit einer HD7970 kombinieren :P

Du hast doch grad selbst den Test dazu gepostet...

sleepingultra.jpg.jpeg


batman.jpg.jpeg


lp2max.jpg.jpeg


lp2low.jpg.jpeg


csgo720p.jpg.jpeg


Es sind die Peaks nach unten die das Spielerlebnis trügen. Und hier über den Preis zu argumentieren ist Quatsch da dieser aus der Leistung der CPu resultiert ;)

Sicher, du hast die Tests im Vergleich mit einer HD7870 gezogen... aber bis Richland kommt dürfte die Leistung einer HD7970 wieder High Mainstream und HD8970 state of the art sein.

Die APUs von AMD sind keine High End Gaming CPUs, ihre CPU Leistung ist da angesiedelt, wo sie auch passt, nämlich zur GPU Leistung selbiger APU.

Auf dem Level dürfte die CPU kaum limitieren.

Mit Trinity hat AMD die Kurve vom FX bekommen, die CPU sind gut, Richland wird ähnlich sein aber richtigen Durchzug verspreche ich mir erst von Steamroller.
 

Anhänge

  • lp2low.jpg.jpeg
    lp2low.jpg.jpeg
    42,8 KB · Aufrufe: 456
  • csgo720p.jpg.jpeg
    csgo720p.jpg.jpeg
    55,3 KB · Aufrufe: 465
Zuletzt bearbeitet:
man muss bedenken Amd hat nicht so die mittel wie sie intel hat. das amd nicht aufgibt finde ich schon mal gut...aber bessere wäre es wenn 2, 3 Die Leute von intel cpu Entwicklung mal nach amd verschwinden. ich glaube dann würden sie intel den Hals berechen.:evillol:
 
Krautmaster schrieb:
Es sind die Peaks nach unten die das Spielerlebnis trügen. Und hier über den Preis zu argumentieren ist Quatsch da dieser aus der Leistung der CPu resultiert

Ja mir ist das schon klar, dass der A10 nicht in allen Spielen "gleich schnell" wie der i5 (bei HD7870) ist und dass man ggf. mit Frameeinbrüchen "leben muss". Mir gings auch darum zu zeigen, dass eine höhere IPC bei Trinity (genauso wie mehr Kerne/Module) nicht zwangsweise einen Vorteil bringen muss, Stichwort: Grafikkartenlimit. Es kann auch ganz anders aussehen - Stichwort: BF3 Frameverläufe im gleichen Test. Sicherlich wird sich das Problem mit der neuen Grafikkartengeneration um eine Modellreihe nach unten (HD7870 -> HD8770) verschieben, aber man kann das halt schlecht pauschalisieren.
Und das mit dem Geld, ich bezog mich ja auf das Beispiel (HD 7870). Ja ich gebe dir natürlich recht, hängen wir eine HD7970/GTX680 an den i5 / A10, dann wird der Vorsprung des i5 sicherlich größer, wodurch sich der höhere Preis dann auch wieder rechtfertigt. Dass Intel nun seine Preise nicht danach auslegt, welche Kombination man selbst wählt, ist mir klar. Das habe ich wahrscheinlich unzureichend formuliert. Ich zielte eher darauf ab, wie man bei so einer Kombination den Aufpreis bei der CPU rechtfertigt. Und ja ich weiß auch, dass 100% Mehrkosten bei der CPU keine 100% Mehrkosten beim Gesamtsystem sind :D

Aber sei's drum. Ich freu mich auf Richland. Bin gespannt was schneller beim Rendern mit Magix 2013 ist. Ein Xeon 1230v2, A10-6800k, FX-8350 oder ein i5 3550/70, denn das spielt bei mir für meinen nächsten PC auch mit rein.
 
Zuletzt bearbeitet:
Elkinator schrieb:
die chipsätze bringen vielleicht PCIe3 unterstützung.
Unwahrscheinlich. Die Southbridge wirds wohl kaum vor der CPU bekommen.
Vielleicht sind sie in 40/32 nm gefertigt. Haben nen paar mehr USB 3.0 Ports. Vielleicht einfach nen paar legacy-Schnittstellen ausgemistet. Ne Revolution wirds sicher nicht, der A85X lässt eigentlich kaum was vermissen.

Elkinator schrieb:
naja, intel geht bei der integration der GPU in die falsche richtung.

bei haswell bekommt die ja einen eigenen L4 cache, dadurch wird sie höchstens langsamer:(
die 128mb ram beim topmodel bringen ja nichts, da passt ja eh keine komplette textur rein und dann ruckelt es erst wieder...
Irgendwie hab ich das Gefühl du meinst das nicht ironisch. :eek:
Warum sollte ein schneller Zwischenspeicher die GPU verlangsamen? Klauen wir doch den CPUs den ganzen L3, L2 und L1 Cache. Den Grafikkarten klauen wir auch den ganzen Cache, am besten die ganze Register auch noch. Kann alles gleich in den DRAM.

Glaubst du das da nur 1€-Jobber bei Intel arbeiten? Da sitzen mit die klugsten Köpfe in Sachen Chipentwicklung, die entscheiden nen relativ aufwändigen Zwischenspeicher zu verbauen der die CPU nicht unerheblich verteuert. Und das Resultat ist der Chip wird verlangsamt? :freak:
Hätten sie mal lieber nen einfachen Forenuser gefragt anstatt viele hochbezahlte Ingenieure einzustellen...

Und deine Spiele hätt ich auch gerne. Es wäre schön wenn die Spiele mal alle wenigstens 4k-Auflösungen hätten. Aber gleich 8k oder 16k wäre ja schon schön und das noch auf niedrigen Details ( Obwohl, mit ner IGP geht man ja mindestens auf Ultra Details).

Elkinator schrieb:
ich glaube aber nicht das intel überhaupt ein problem mit der bandbreite bei der GPU hat, AMD hat ja jetzt ca. den selben durchsatz und die GPU ist viel schneller.
intel muß mal dafür sorgen das die GPU überhaupt die bandbreite ausnutzt.
Was ist denn das für ne Schlussfolgerung? Bei AMD läuft die 7540D schon an der Grenze. Alles drüber wird durch mangelnde Speicherbandbreite ausgebremst. Haswells GT3 wird sicherlich schneller als ne 7540D wwerden. Ne HD4000 ist schon nicht weit weg.
Und auch der CB-Test zeigt, dass die HD4000 nicht weit weg vom Speicherlimit ist. Der Ivybridge profitiert schon deutlich sichtbar von DDR3-1866 bei Nutzung der IGP. (Im Schnitt 4%)

Die Speicherbandbreite ist das größte Problem der IGPs. Der Hersteller der das Problem in Zukunft am besten löst macht das Rennen.
Bisher hatte Intel damit nichts am Hut, da man von der Rechenleistung weit weg war, aber mit Haswell ist das vorbei.
Und da DDR4 noch länger auf sich warten lässt, muss man andere Möglichkeiten nutzen.
 
Zuletzt bearbeitet:
Was ist denn jetzt? Gibt es dieses oder nächstes Jahr noch die 28nm CPUs für den AM3+ Sockel?
 
@bensen

Jop, und die GT3 dürfte gern doppelt so schnell als die jetzige HD4000 werden.

Mich würde interessieren wie AMD dieses Problem adressiert. Richland geht auch noch so, schnellen DDR3 vorausgesetzt... aber wenn die Leistung bei 28nm und darunter noch deutlich zulegt, dann hilft nur noch QuadChannel oder eben DDR4. Deswegen bin ich gespannt was Richlands Nachfolger da zu bieten hat...

Wird sich zeigen...

Dass Intel auf den L4 Cache setzt ist für mich eher ein Indiz dafür, dass die iGPU nicht gerade langsam werden wird.
 
2L84H8 schrieb:
Hab ich doch im Post oben genau so geschrieben. Wer lesen kann, ist im Vorteil.
tun mir leid, das hab ich wohl einfach überlesen;)
ich nehm alles zurück und behaupte einfach mal das gegenteil^^
Ergänzung ()

Schu3 schrieb:
Warum ein A10 mit einem I5 mithalten können soll, ist mir natürlich ein Rätsel. Ihr Leute werdet immer unverschämter! Erst wird rumgeschriehen, dass AMD super scheiße ist und zu garnichts taugt (was vll. zu Teilen stimmen mag). Dann wird rumgeschriehen dass diese Scheiß-Produkte auch noch zu teuer sind und man sie ja geschenkt nicht nehmen würde (was natürlich ziehmlich dumm wäre). Und jetzt wird gefordert, dass eine 100€ APU (sowohl Kosten für CPU + GPU) eine 160-200€ CPU abzieht, wenns wenigstens um das eigentliche Konkurenzprodukt (FX-Prozessoren) ginge, aber nein! Sonst ist alles gut ja?
wo vordere ich das?
wen AMD die IPC so weit steigern könnte das er mit einem i5 mithalten kann, können und werden sie ihn auch teurer verkaufen.
und als spieleplattform uist ein FM2 system halt nur sehr beschrenkt tauglich.
Ergänzung ()

der cache der GPU wird trotzdem nichts bringen, bei spielen kann das höchstens den zeitpunkt bis es ruckelt etwas verzögern.

aber wart es einfach ab, wirst dann eh sehen das ich recht habe und die intel GPU bei spielen weiterhin gegen AMD den kürzeren zieht.
Ergänzung ()

bensen schrieb:
Irgendwie hab ich das Gefühl du meinst das nicht ironisch.
nein, das meine ich schon so.
bei einem spiel bringen so mickrige 128MB nichts, wirst du eh sehen wenn es erste benchmarks gibt.
der cache kann nur kurzfristig die bandbreite erhöhen, bei einem spiel reicht das aber nicht und der cahce wird dann zu langsam mit daten gefüttert.
das hätte nur sinn wenn der cache etwas viel großer wird.
Ergänzung ()

Krautmaster schrieb:
Dass Intel auf den L4 Cache setzt ist für mich eher ein Indiz dafür, dass die iGPU nicht gerade langsam werden wird.
wenn man logisch darüber nachdenkt merkt man aber das es bei spielen nichts bringen kann, der cache kann den durchsatz ja nur kurz erhöhen.
bei einem spiel reichen mickrige 128MB nciht lange aus und dann hat man wieder das problem das der ram die daten nicht schnell genug liefern kann.

und ich glaube schon das AMD bei GPUs etwas mehr erfahrung hat nachdem sie ATI gekauft haben, intel geht halt meiner meinung nach den falschen weg, die entfernen die GPU ja immer weiter von der CPU anstatt sie zu integrieren.

ich glaube schon das die GPU schneller wird, aber eben nicht wegen dem Cache, da wäre dann ein test mit und ohne cache gut, mal sehen ob das kommt.
Ergänzung ()

Herdware schrieb:
RCM ist aber eben nicht dafür gedacht, höhere Taktfrequenzen zu erreichen, sondern in einem speziellen Taktbereich effizienter zu sein. Je höher der Takt darüber hinaus geht, um so weniger bringt es.
Vishera war schon über dieses Taktfenster hinaus, deshalb ist RCM dort inaktiv.
nein, das stimmt nicht, RCM bringt sogar erst etwas ab 2,9Ghz
unter 2,9Ghz funktioniert es nichtmal.

hier ein datenblatt zu RCM
http://www.ewh.ieee.org/r5/denver/sscs/Presentations/2012_05_Sathe.pdf
 
Zuletzt bearbeitet:
nur so nebenbei, ist schon jemandem aufgefallen das bei 3dcenter bei jeder nachricht über eine AMD CPU mit absicht die kerne falsch benannt werden?

jedesmal weise ich den autor drauf hin, und jetzt steht dort schon wieder in einer meldung richland-kerne^^
echt lustig das jemand der von nichts eine ahnugn hat dort nachrichten schreiben darf:O
 
Elkinator schrieb:
nur so nebenbei, ist schon jemandem aufgefallen das bei 3dcenter bei jeder nachricht über eine AMD CPU mit absicht die kerne falsch benannt werden?

Die ziehen es wenigstens Konsequent durch. Dort heißt es ja auch Vishera-Kerne und Trinity-Kerne. Da weiß wenigstens jeder gleich, dass sich z.B. hinter A10-5700 Trinity steckt und hinter A10-6700 Richland.
 
es ist aber trotzdem falsch:/
und die begründung vom autor ist das ihm, das ihm die AMD codenamen zu kompliziert sind und man sich da ja nicht auskennen kann^^
 
So nervig, dass die Amerikaner immer ein eigenes Süppchen machen müssen ^^ Für ich ist es immer wieder ungewohnt wenn ich deren Symbole sehen muss. (Bso Widerstand Symbol in der Schaltung)

Dual-mode resonant clock design in 32nm SOI
– Conventional mode : < 2.9GHz
– RR d 2 9GH esonant mode : > 2.9GHz to ffmax
• Power savings
– Clock power:  25%
– Average application power (core):  4.5%
– Idle power (core):  10%
• Built upon existing clock infrastructure
• No CMOS technology modificatio

Also, eventuell wäre ein Vishera update auf 32nm interessant. Mich würde interessieren ob man bei Trintiy noch nicht RCM in Verwendung hatte, und deshalb einen höheren Takt realisieren könnte. ? Naja die Zeit liefert antworten.
 
Zuletzt bearbeitet:
wie gut das ich mich mit schaltplänen nicht gut auskenne, mir fällt es nicht auf das die amis andere symbole verwenden^^
 
Elkinator schrieb:
der cache kann nur kurzfristig die bandbreite erhöhen
Das ist der Sinn eines Cache. :confused_alt: Sicher wären 4GB on Die Speicher schöner, aber dann vielleicht doch etwas an der Realität vorbei.
Ich frag mich auch warum so oft auf embedded RAM gesetzt wird, wenn es doch nichts bringt, ja sogar ausbremst.
Da scheinen die Ingenieure nicht nur strunzdumm zu sein, sondern auch noch absolut nicht lernfähig.
 
das hat bei einer GPU aber keinen sinn!
da wird es bei einem spiel trotzdem ruckeln weil kaum immer die richtigen daten in dem kleinem cache sein werden.
bei einer CPU kann man das etwas vorhersehen, aber bei einer GPU geht das eben nicht so gut und da sind es viel größere datenmengen.

und welcher hersteller verwendet bei einer iGPU embeddet ram?
da wäre mir nichts bekannt.

IBM verwendet das beim Power, das ist aber auch eine CPU.
aber ihr werdet das dann eh bei benchmarks sehen, bei spielen wird das nichts bringen.

und bei OpenCL ist es auch hinderlich, da werden die letenzen ja nur unnötig erhöht.
der einzige richtige weg ist eben es wie AMD zu machen und die GPU richtig zu integrieren, das sie direkt auf die speicherbereiche der CPU zugreifen kann und nicht wie bei intel alles kopiert werden muß was nur dne datentransfer in die höhe treibt.
 
Zuletzt bearbeitet:
und da kannst du sicher auch benchmarks mit und ohne dem cache vorlegen?

aber bei diesen konsolen sind die texturen auch deutlich kleiner.
und bei der xbox sind es bis jetzt nur spekulationen.
 
bensen schrieb:
Das ist der Sinn eines Cache. :confused_alt: Sicher wären 4GB on Die Speicher schöner, aber dann vielleicht doch etwas an der Realität vorbei.
Ich frag mich auch warum so oft auf embedded RAM gesetzt wird, wenn es doch nichts bringt, ja sogar ausbremst.
Da scheinen die Ingenieure nicht nur strunzdumm zu sein, sondern auch noch absolut nicht lernfähig.

true story ;)

L1 bringt vermutlich auch nichts weil die CPU nicht direkt der ganze Arbeitsspeicher reingeht.

@Elkinator
wie kann man so stumpfsinnig sein o_O. Du wagst dich wirklich so weit aus dem Fenster zu lehnen um zu behaupten das bringt nichts? Dir ist klar, dass du dir mit dieser Behauptung mehr "Wissen" zusprichst als dem Mrd. schweren Entwicklungsteam das Intel beschäftigt?

Meinst du eine GPU arbeitet intern komplett ohne Cache? Sicher werden nicht die größten Texturen in den 128 MB Cache geladen, der kann auf für andere Zwecke gut sein. Und ja, selbst 128 MB puffern da schon einiges weg zumal man die wenigsten Games 1 GB VRAM + brauchen (vor allem nicht in der Leistungsklasse)
Vielleicht braucht Intel den Cache auch bei GPU Computing?

*hust* - leider ohne GT3 ;)
 
Zuletzt bearbeitet:
Krautmaster schrieb:
L1 bringt vermutlich auch nichts weil die CPU nicht direkt der ganze Arbeitsspeicher reingeht.
der vergleich alleine ist schon schwachsinn.
bei einem CPU kann man etwas voraussahen, das geht aber bei der GPU kaum...
und ja, man hat bei intel schon gesehen das sie bei GPUs keine ahnung haben.

wartet doch einfach mal ab bis es haswell gibt, ihr werdet dann ja sehen wer recht hat...

und zu behaupten das die entwicklungsteams bei intel immer richtig liegen ist aber auch etwas leichtsinnig hinausgesprochen, beim P4 wussten die anschienend ja auch nicht was sie tun, oder will jemand behaupten das die da etwas gutes entwickelt haben?
 
Zuletzt bearbeitet:
Zurück
Oben