News Erste Preissenkung für „Trinity“-APUs bereits in Kürze?

Mit einem AMD für mich unspielbare 50fps und mit einer Ivy Bridge über 80fps.
darf ich bitte fragen,was hast du für Augen?
sind ja Adler schnell,da können meine menschliche Augen mit max. 30fps einfach nicht mithalten:freak:
 
Dazu sage ich einfach nur, Fernseh Medium und Computerspiele sind etwas total anderes.
Ich fange schon an zu Würgen bei den ganzen 120Hz Monitor Threads, von wegen es würde ja nur bei 120fps etwas nützen und bei weniger frames sogar bemerkbare Defizite mit sich bringen.
Deswegen kommentiere ich das auch nicht weiter.
 
Genaugenommen könnte das Auge mehr, doch das Gehrin kommt nicht mit..?

Und ja 25FPS sind auf einem 120Hz Monitor viieel flüssiger..!
:freaky:

30€ passt bei den A4ern. Das löst den Sempron-Singlecore ab... ^^ + GPU.
Alles unter den A10ern kommt mir nicht vollkommen genug vor. Diese 'Dual-Cores' haben insg. nur noch 1MB L2!
Der/Die/Das Die ist aber dann bestimmt auch nicht die vollen ''Trinity''-244mm² groß!? (Funktionsfähig).

ABER wie gesagt: 30€ gern!
 
Zuletzt bearbeitet:
Julz2k schrieb:
Dazu sage ich einfach nur, Fernseh Medium und Computerspiele sind etwas total anderes.
Ich fange schon an zu Würgen bei den ganzen 120Hz Monitor Threads, von wegen es würde ja nur bei 120fps etwas nützen und bei weniger frames sogar bemerkbare Defizite mit sich bringen.
Deswegen kommentiere ich das auch nicht weiter.

Ach angeblich sehen die doch alles, vor 10 jahren waren alle lcd/tft nicht spieletauglich die weniger als 25ms anzeigen konnten (Farbwechsel) und heute ist jeder TFT/LCD scheisse der über 5ms ist. Und so ist auch das Spiel mit all den anderen Produkten.

mich würde mal interessieren ob der grafikchip des günstigsten celeron HD material in 1080p oder Flashvideos in der quali widergeben kann? Die günstigste APU vom AMD kann es jedenfalls.
 
Matzegr schrieb:
Die Herstellungskosten bei Intel müssten kleiner sein als bei AMD, aber deutlich? Da wär ich mir nicht so sicher.

man muss sich nur die Marge beider Unternehmen ansehen...

Intel setzt nicht aus Spaß auf den kleineren Prozess und das so schnell wie möglich, wäre imho gar nicht nötig zur Zeit... summa sumaru werden die Kosten in 22nm für Intel geringer sein als für 32nm und die neuen Belichtungsgeräte werden auch darunter benötigt.

Bei 22nm bekommt Intel deutlich mehr Chips pro Wafer raus, vorausgesetzt die Yield spielt mit und das tut sie offenbar.

Intel scheint es auch nicht nötig zu haben die kleine Fertigung mit kleinst CPU wie ATOMs zu erproben, dabei wären die mit Stromsparauslegung (zb auch Medfield) ja genau richtig dafür...

Auch die Fülle an Masken... wie viele unterschiedliche ohne iGPU / HD1000-H4000 Dualcore / Quadcore Varianten gibt es...

AMD muss da jeden Cent umdrehen wenn es darum geht ob es vllt Sinn machen würde einen Trinity DC mit eigener Maske zu bringen während Intel die Masken im Unverstand rausballern kann da jeder mm² wohl mehr Ersparnis bringt als sich die Maske kosten lässt...

Das R&D und der neue Prozess bei Intel massiv teurer ist steht außer Frage... aber unterm Strich wird Intel pro CPU deutlich günstiger wegkommen.
 
Zuletzt bearbeitet:
Hades85 schrieb:
Ach angeblich sehen die doch alles, vor 10 jahren waren alle lcd/tft nicht spieletauglich die weniger als 25ms anzeigen konnten (Farbwechsel) und heute ist jeder TFT/LCD scheisse der über 5ms ist. Und so ist auch das Spiel mit all den anderen Produkten.

mich würde mal interessieren ob der grafikchip des günstigsten celeron HD material in 1080p oder Flashvideos in der quali widergeben kann? Die günstigste APU vom AMD kann es jedenfalls.

Deswegen haben sich die CPL (professionellste CS Liga) auch geweigert auf den 17/19" TFTs die von BenQ gesponsort wurden zu spielen, obwohl sie die schnellsten damals waren.
Damals war TFT einfach noch zu neu und man hat sich mit den über 100Hz sowie Schärfe selbst bei 640x480 einfach gewöhnt und klar kann man damit auch besser Spielen.
Mittlerweile sind die jedoch alle ausgestorben, nicht nur CRTs nein auch die ex professionellen CS Gamer :D
Deswegen juckt es Heutzutage auch keinen mehr das es keine CRTs mehr gibt. Man hat sich zum einen auf TFTs eingelassen und es gibt seit mehreren Jahren schon 120Hz auf TFTs.

In der Theorie, auf Papier sind auch 25fps auf einem 120Hz Bildschirm "flüssiger" in der Praxis merkst du davon aber nichts, da 25 nicht Zeitgleiche Bilder wie es beim PC üblich ist (Grafikkarte/Monitor output) sowieso Ruckeln zumindest im RAW Format.

BTT:

Auf meinem Celeron 530 kann ich 1080p League of Legends mit konstant 100-120fps im 5on5 Spielen.
Youtube 1080p wird Dank Skript auch von der GPU berechnet.
 
Julz2k
Ich hab schon gegen den Wind gerochen dass du ein CS Spieler bist. Und du bist jetzt der Meinung, dass diese Fraktion die 0815 gamer sind ?
Genauso könnte jetzt jemand behaupten, er braucht das und das um World of Tanks zu spielen (übrigens seit neusten Patch gpu-lastig).
Flashgames sollten mittlerweile dank gpgpu doch flüssig beschleunigbar sein, sodass die CPU sowieso sekundär ist.

Deine Ansichten, sind selbst mir als Gamer sowas von egal lol. Es ist lächerlich über solche Feinheiten in einem Thread zu reden, in dem es quasi um die günstigsten Dual-Core APU Varianten geht.

Wenn vielen Ottos die Grafikeinstellung egal ist (es soll spielbar sein) dann wird es dem User auch kack egal sein, ob es 50 oder 80 frames sind, selbst wenn es um eine kack Auflösung handelt.

Ich selber bin der Überzeugung dass man mit einer HD 2000 noch die und die games spielen kann. Aber ob man viel von den intel HD Graphics der Pentium und drunter erwarten darf ?

Naja wie schon oft gesagt, es kommt auf die Games an. Wenn man natürlich Aussagen auf Feinheiten abstimmt, ist das okay, aber es dann zu verallgemeinern...

Würde Chipzilla gerne die kalte Schulter zeigen, geht aber leider aufgrund von Bulldozer nicht.
Dein Bild ist ja sehr passend, du bist ja auch nur jemand der auf Spatzen schießt.

Krautmaster
Intel produziert ja selber, also müssen sie auch investieren ect. Ich weiß zwar nicht genau wie das bei AMD ist. Aber die werden wahrscheinlich einen gewissen Teil/Preis der Entwicklung zahlen.
Immerhin ist es ja auch für GF und dessen Besitzer quasi eine Technologie die sie nicht nur für AMD sondern auch für sich selbst fördern.
Weiteres muss GF für AMD attraktiv bleiben, immerhin hat AMD ja die freie Wahl wo sie produzieren lassen.

Intel kontrolliert den Markt und kann den Preis bestimmen. Je nach Intels Preislage muss AMD kalkullieren und anpassen.
Es ist nur natürlich dass Intel schaut, dass AMD nicht zu viel Verlust macht. Genauso hat Intel nichts davon, wenn sie ihre Prozessoren, die ja so beliebt sind herschenken.
Wieso glaubt ihr sind Apple Produkte so teuer ? weil sie Abnehmer finden. Somit hat Intel mehr davon, einen hohen Preis zu verlangen, als einen niedrigen.
Nur im Kindergarten macht man die Sandburg des anderen kaputt.
 
Zuletzt bearbeitet:
@pipip

schon, das ist ja in diesem Falle auch ein Vorteil da Intel die eigenen Fabs auslasten kann... wäre dem nicht so müsste man wohl wie GF noch Auftragsfertiger werden...

Intel setzt imho erst seit dem Nehalem auf Sockel 1156 AMD preislich massivst unter Druck, auch die kleinen Clarkdales tragen dazu bei.

Davor waren die Mainstream CPUs alle Richtung 300-550€ zu haben, heute gehen die i5's ja schon ab 150 los... wobei man selbst den i3 ja als Mainstream bezeichnen kann.

Ich frage mich was der Durchschnittskäufer heute für nen PC hinlegt... 1000€ wie noch vor 5 Jahren wird es wohl nicht mehr sein, aber sicher mehr als 300€ was heute praktisch jedem DAU mehr als reichen würde...

Selbst in 599€ Medion PCs sind teils i7-2600 verbaut... und wir Deutschen sind zB nicht gerade Pfennigfuchser sondern erwarten bei etwas höherem Preis einfach auch etwas mehr und geben es teils bereitwillig aus.

Also in einem Preisbereich in welchem AMD kaum noch eine Rolle spielt...

Ich denke Intel verdient nicht mit den Celerons das große Geld, viel eher im Bereich i5 -i7 - zumindest im Consumer Markt.


Preis-Leistung ist das eine... aber Apple war / ist ein gutes Beispiel dafür wie man auch bei teils grottiger P/L abräumen kann, weils die Leutz kaufen... (was auch absolut okay ist...)

Es ist wie mit den Autos... ein Polo bringt dich ans Ziel, eine CKlasse auch und für die ganz speziellen gibts nach oben fast kein Limit...
 
Zuletzt bearbeitet:
Julz2k schrieb:
Deswegen haben sich die CPL (professionellste CS Liga) auch geweigert auf den 17/19" TFTs die von BenQ gesponsort wurden zu spielen, obwohl sie die schnellsten damals waren.
Damals war TFT einfach noch zu neu und man hat sich mit den über 100Hz sowie Schärfe selbst bei 640x480 einfach gewöhnt und klar kann man damit auch besser Spielen.
Mittlerweile sind die jedoch alle ausgestorben, nicht nur CRTs nein auch die ex professionellen CS Gamer :D
Deswegen juckt es Heutzutage auch keinen mehr das es keine CRTs mehr gibt. Man hat sich zum einen auf TFTs eingelassen und es gibt seit mehreren Jahren schon 120Hz auf TFTs.

In der Theorie, auf Papier sind auch 25fps auf einem 120Hz Bildschirm "flüssiger" in der Praxis merkst du davon aber nichts, da 25 nicht Zeitgleiche Bilder wie es beim PC üblich ist (Grafikkarte/Monitor output) sowieso Ruckeln zumindest im RAW Format.

BTT:

Auf meinem Celeron 530 kann ich 1080p League of Legends mit konstant 100-120fps im 5on5 Spielen.
Youtube 1080p wird Dank Skript auch von der GPU berechnet.

Also CS Profis sind auch ein ganz eigens Völkchen, die heulen doch schon herum wenn der gegner 20er ping hat und sie selber "nur" einen 25er. Ich hatte früher, ich bin nicht mehr ganz sicher, selber einen 15zoll tft von Benq/liyama, der hatte beim farbwechsel eine reaktionszeit von 25ms, das war für frühere verhältnisse extrem gut. Und ich hatte nie Probleme mit dem Gerät beim zocken, und ich habe selber cs 1.6 im amateur bereich gezockt, aber nur im 2on2. Auf public habe ich damit 99% fertig gemacht.

Aber ich will mich gar nicht an solchen geschichten aufhängen, was ich nur verdeutlichen möchte, alles ist sehr subjektiv. Wie du schon sagst, viele schwören mittlerweile auf 120hz, ich sehe nicht mal den unterschied zwischen 70 und 85 herz aber gut jedem das seine.
 
Ach zu den Preissenkungen sage ich nicht nein. Nur müsste auch endlich mal Asrocks FM2A85X Extreme 6 lieferbar sein, da dieses scheinbar das einzige A85X-Board ist, welches DDR3-2400 Speicher unterstützt. Aber steht ja schon in der News, dass es sich um die kleinen Modelle handelt, vll. wirkt es sich ja trotzdem auch nach oben aus.
 
Das sollen die doch als Beilage zum Mainboard kostenlos hinzugeben :D Junge Junge was für Zeiten! Ich weiß noch, ist noch nicht lange her, da waren CPU unerschwinglich
 
Krautmaster schrieb:
Intel setzt nicht aus Spaß auf den kleineren Prozess und das so schnell wie möglich, wäre imho gar nicht nötig zur Zeit... summa sumaru werden die Kosten in 22nm für Intel geringer sein als für 32nm...

Was wäre Ivy ohne Shrink?
Ivy bei 32nm hätte 7% mehr Leistung auf CPU Seite und 30% mehr Leistung auf GPU Seite bei ähnlichen Stromverbrauch zu Sandy und wäre noch von der Die ~20% größer, somit müsste Intel höhere Preise verlangen, aber wer würde es kaufen? Der Shrink bringt einen riesen Vorteil bei der Leistungsaufnahme, deswegen war er so wichtig. Man hat einen Kaufanreiz geschaffen, der bei 32nm nicht gegeben wäre.

Ich mach mal einen kleinen Ausflug zu GPUs. Laut Nvidia bringt 20nm und darunter keinen Kostenvorteil gegenüber 28nm. Sprich der wichtigste Grund auf 20nm zu wechseln ist die geringere Leistungsaufnahme und nicht die Kostenersparnis(Da die Kosten pro Transistor nicht mehr sinken wie bisher, allerdings der Waferpreis exponentiell ansteigt). Bei 28nm gegenüber 40nm zahlen Nvidia und AMD schon 20% mehr pro Wafer. Mal sehn wie viel AMD und Nvidia bei 20nm mehr zahlen dürfen. Das ist ja auch der Grund warum 450mm Wafern langsam interessant werden, obwohl man da 25-40 Mrd. $ für R&D investieren muss. Durch kleinere Fertigung spart man ab einen gewissen Punkt nichts mehr, bei den Wechsel auf 450mm Wafern wird ne Die wenigstens ~25% billiger gegenüber 300mm Wafern. (Bei 200mm auf 300mm wurde eine Die um 30-40% billiger)
 
Ivy bei 32nm hätte 7% mehr Leistung auf CPU Seite und 30% mehr Leistung auf GPU Seite bei ähnlichen Stromverbrauch zu Sandy und wäre noch von der Die ~20% größer

Klingt so als ob AMD doch von llano auf Trinity kein so schlechte Arbeit geleistet o0
 
mensch183 schrieb:
2 Wochen für eine neue Produktserie Mondpreise verlangen
.....
Ab hier habe ich nicht mehr weiter gelesen. Hast du dir keine Benchmarks angesehen? Ein 5800K zerreißt in Grafikleistung jeden Intel ohne Ausnahme. Und dabei ist er genauso teuer wie ein 2100/3220. + man kann ihn auch noch schön übertakten....
Die CPU-Leistung ist dafür sehr ausgeglichen in diesem bereich. Mal ist AMD vorn, mal Intel.
Und ehrlich wenn ich mit ner APU ordentlich Arbeiten kann UND HD-Filme schauen kann kommt mir das Ding ins Haus.

derGrimm schrieb:
Hmm, habe ehrlich gesagt sorge so einen "unechten" Dualcore zu empfehlen...

Wieder dieses Äpfel mit Birnen vergleichen.
Sagst du das ein Auto mit vier Sitzen kein echter Viersitzer ist nur weil es 2 Türen hat?

Julz2k schrieb:
Vor allem online Spiele, nunmal der größte Bereich überhaupt....

....Mit einem AMD für mich unspielbare 50fps und mit einer Ivy Bridge über 80fps....

...Ich habe selbst mit einer deutlich schwächeren HD2/3000 mehr fps da ich Online Spiele generell auf niedrigst möglicher Qualität spiele und dort ein Celeron oder Pentium Sandy/Ivy einfach deutlich schneller ist...
Man du bist ja ein mutant das du mehr als 50 Frames mitkriegst... du solltest mal zum Augenarzt gehen und VSync anwerfen (Ironie)

Und ich glaube kaum das wenn ein Spiel wenigsten 2 Kerne anspricht ein Intel in Sachen Grafik einen AMD schlägt. Bei einem Kern müsste man wirklich schauen und Benchmarks vergleichen. Aber ich glaube mit Intel-Grafiklösungen kann man nichts wirklich spielen, denn da kann die CPU noch so gut sein.
 
Zuletzt bearbeitet:
Man sollte schon richtig Zitieren, wenn man dann solche Sachen in den Mund nimmt.
Ich habe ganz klar geschrieben, CPU Leistung die gerade bei Online Spielen deutlich mehr benötigt wird.
Das die Grafikleistung schlechter ist verneine ich ja nicht, ist ja offensichtlich.
Wird bei SPielen wie League of Legends nunmal nicht gebraucht, dort hat man wie in so vielen anderen Online Spielen vorteile wenn man auf niedrigsten Details spielt.
Auf Ultra Low ist eine Sandy Bridge einfach schneller, AMDs APU-GPU ist dann vllt. nur zu 10% ausgelastet, der Prozessor rennt jedoch am Limit.


http://boallen.com/fps-compare.html
 
Da müssen einfach FPS-Zahlen her die wir vergleichen können. Weil das wir hier betreiben ist einfahc nur in die Luft schießen...

und sry... ich kann da nichts erkennen zwischen 30 und 60
ich spiele BF3 auch mit Einbrüchen in die 25 und es stört mich nicht
 
skyrim%201280.png

Bei den anderen Games schaut es nicht anders aus. Leider gibt es noch nicht viele Tests über dem A6.
Wenn es um die reine CPU leistung geht, ist der Intel sicherlich effizienter.

Wenn es aber um einen günstigen wow, wot oder ähnliches geht, kann der A6 mit den jetzigen Preis schon interessant sein. Interessant wäre es wie hoch man den A6 overclocken kann und wieviel Performance man noch rauskitzeln kann.

Btw ist Skyrim soviel ich weiß CPU lastig.


Falls es einige noch nicht mitbekommen haben

HD2000 = HD4250 onboard igp
HD3000 = APU A4
HD4000 = APU A6

Somit ja ein Pentium um 30 euro + dgpu ist schon was gutes. Aber wenn man um 30 euro eine HD4000 bei Intel bekommen würde, wäre dass für einige auch interessant oder ?

Also ist ein 1Moduler mit einem A6 igp für gewisse Anwendungen sicherlich nicht uninteressant.
 
Zuletzt bearbeitet:
Matzegr schrieb:
Der Shrink bringt einen riesen Vorteil bei der Leistungsaufnahme, deswegen war er so wichtig. Man hat einen Kaufanreiz geschaffen, der bei 32nm nicht gegeben wäre.

Darum geht es bei IB nicht im Geringsten, nicht aus wirtschaftlicher Sicht. Selbst die 32nm Vertreter sind hocheffizient im Vergleich zur Konkurrenz.

Dass Intel damit bei IB wirbt ist nur logisch. Dennoch fällt die Einsparung für einen deutlich kleineren Prozess relativ gering aus, vor allem bei den Mainstream Ablegern die eben für Takt eine gewisse Spannung brauchen. Der Prozess ist eben auch jung.

Um konkurrieren zu können hätte Intel auch den Weg hochgetakteter 32nm CPU gehen können, bei 120W TDP sind da locker 4 Ghz drin. Dadurch ändern sich die Kosten ja nicht.

Intel hat den 22nm Prozess in der Tasche, man hat ihn einsatzbereit und setzt ihn schnellstmöglich ein.
Man würde 22nm kaum einsetzen wenn die Fertigung in 32nm günstiger wäre und noch bei weitem für die Konkurrenz reicht, imho sind die Topmodelle nach wie vor in 32nm gefertigt.
 
Die Intel Celeron- und Pentiumkastrate sind ohne separate Grafik nur wenig zu gebrauchen.

Für den 2 Kern-Trinity dürfte eine eigene Maske vorliegen. Die Yield´s bei 32 nm Trinity sind deutlich besser als bei liano. Somit dürfte es wirtschaftlich für AMD gehen.

Das bessere Produkt im Einsteiger und unteren Mittelklassebereich ist sowieso Trinity
Ich glaube es wird ein Erfolg. Noch mehr nach dem anstehenden Shrink auf 28 nm.

Vom Idlestrom mit 26 Watt eh schon deutlich besser als Intel samt Einsteigergrafikkarte.
 
Preissenkung? Dett is halt Marktwirtschaft. Man muss die Preise an die Leistung anpassen.
 
Zurück
Oben