News „Llano“-Desktop-Preis: 150 US-Dollar für das Flaggschiff

ich finde den 2 Kern mit 160 Shadern eh weit interessanter, gerade für einen HTPC.

400 sind für viele Einsatzgebiete schon overkill.

Edit:

immerhin beruhigt es mich das KAOZNAKE gefressen hat, dass die GPU von AMDs Llano für die entsprechende ZielGruppe (Casual Gamer), die bessere ist.
 
FatFire schrieb:
Ja, natürlich. Du musst doch immer überlegen in welchem Umfeld wir uns befinden. Hier spielt der Durchschnittsuser doch mit Core i7-2600K und 570GTX (aber nicht 6970, die stinkt). Da geht jedem die Muffe, weil ohne neue Speichermodule doch nicht mehr als 16 GB Ram verbaut werden, ein System ohne SSD ist so out, weil der Mensch davor doch nur noch am idlen ist.
Und AMD ist der letzte Dreck weil man noch nicht einmal einen hektischen Ego-Shooter ohne Framedrops auf zwei Monitoren spielen kann, wenn auf dem dritten ein YouTube-Video läuft. Alles andere ist doch total realitätsfremd.

wie wahr wie wahr... das ist wohl der Preis, den man zahlen muss, wenn man sich in den entsprechenden Foren unterwegs ist... :(

Krautmaster schrieb:
immerhin beruhigt es mich das KAOZNAKE gefressen hat, dass die GPU von AMDs Llano für die entsprechende ZielGruppe (Casual Gamer), die bessere ist.
Wusste gar nicht, dass das für ihn jemals zur Diskussion stand...

Hab ich aus den Posts jedenfalls nicht heraus gelesen.
 
Das bezieht sich auch weniger auf ihn als auf Andere ;)

ich finde es sogar gut, dass er es so formuliert hat. Hätte er zuvor nicht den Anschein gemacht hätte ich noch ein "endlich" davor geschrieben.

Viele haben noch nicht verstanden, dass der Vergleich von i3/i5 mit Llano insofern hinkt, dass die Zielgruppe eine verschiedene ist, beide CPU jedoch ihre Daseinsberechtigung haben da sie für die jeweiligen Zielgruppen besser sind. CPU lastig vs Grafiklastig.

Was man hier noch anmerken sollte ist, dass die geposteten Foilen von AMD zu dem Thema natürlich auch fürn Ar*ch sind. Käme in etwa einer Intel Folie gleich die Llano gegen einen i3 2100 in SuperPi antreten lässt ^^.
Ich finde sie schon fast lächerlich.

In den meisten Fällen also:

Zocken -> Llano
Arbeiten -> SB
 
Zuletzt bearbeitet:
SB fürs arbeiten, irgendwie war ich bis dato in den falschen Firmen ;) Was ich so an Arbeitsrechnern kenne (in Stückzahlen so 50k+) beläuft sich derzeit auf nen P4 mit 1,6-2,6Ghz gepaart mit 512MB RAM unter WinXP dazu ne 10cent Maus und Tastatur.

Wenn man grade Verwaltungen/große Telekommunikationsunternehmen und der gleichen dazu bekäme auf E-350 umzusteigen könnte man direkt wieder 2 AKWs abstellen :)
 
Krautmaster schrieb:
Zocken -> Llano
Arbeiten -> SB
Die Einordnung halte ich dann doch für zu grob. ;)

bei diesjähriger Anschaffung:
Beim Arbeiten müsstest du in jedem Fall differenzieren, ob GPU-Beschleunigung nutzbar ist.
Das gleiche gilt beim zocken, wenn es darum geht, ob SMT mittelfristig einen "echten" Kern immer signifikant in den Schatten stellen kann und damit je nach Anwendungsgebiet etwas gewichtiger wäre.

Was die Folien angeht; zumindest die Bildquali-Vergleiche - auch via AF-Blume - sind zumindest mal ein Anhaltspunkt bis so ein Test von einer Testredaktion vorgenommen wird. Dann ließe sich ja nachweisen, ob die Folie von AMD realistisch ist oder argh geschönt. Ggü nVidia muss sich AMD dem Vergleich ja auch stellen, warum also die Intelsche GPU da außen vor lassen?
 
KAOZNAKE schrieb:
Da kann ich mir innerhalb von Minuten ein für mich geeignetes AMD-System zusammenstellen, wo ich bei INTEL schon überlegen muss, welchen Sockel ich überhaupt auswählen muss.
Da gibt's nur einen Sockel, der in Frage: 1155, denn 1366 ist Enthusiast und alles andere nicht mehr aktuell.

AMD hält's mit FM1 und AM3+ künftig genauso, davon ab hat AMD in den letzten Jahren 754, 940, 939, AM2, AM2+, AM3 und AM3+ gebracht - Intel "nur" 775, 1366, 1156 und 1155. Wenn, dann ist's bei Intel übersichtlicher - aber das will ja keiner wahrhaben.
 
yasu schrieb:
Was die Folien angeht; zumindest die Bildquali-Vergleiche - auch via AF-Blume - sind zumindest mal ein Anhaltspunkt bis so ein Test von einer Testredaktion vorgenommen wird. Dann ließe sich ja nachweisen, ob die Folie von AMD realistisch ist oder argh geschönt. Ggü nVidia muss sich AMD dem Vergleich ja auch stellen, warum also die Intelsche GPU da außen vor lassen?

Die SB HD3000 wurde von CB bereits getestet. Die AF-Blume der Folie wird von dem Test bestätigt: https://www.computerbase.de/artikel/grafikkarten/test-sandy-bridge-grafik.1409/seite-11#abschnitt_bildqualitaet_in_spielen
 
yasu schrieb:
Die Einordnung halte ich dann doch für zu grob. ;)

bei diesjähriger Anschaffung:
Beim Arbeiten müsstest du in jedem Fall differenzieren, ob GPU-Beschleunigung nutzbar ist.
Das gleiche gilt beim zocken, wenn es darum geht, ob SMT mittelfristig einen "echten" Kern immer signifikant in den Schatten stellen kann und damit je nach Anwendungsgebiet etwas gewichtiger wäre.

;) dasselbe hatte ich mir überlegt deswegen galt die Einordnung für die meisten Fälle wie geschrieben...

Wer natürlich viel GPU Beschl. benutzt...

Jedoch limitiert selbst bei unserem CAD (UG NX 7.5) die CPU, und das auf einem Kern. =/
 
Wird $ 1:1 umgerechnet ( in Euro ) oder gilt bei Hardware ebenfalls d. Währungskurs?
 
Athlonscout schrieb:


AMDs Winkelabhängigkeit ist deutlich besser, dafür flimmert Intels AF deutlich weniger und zeigt kein auffälliges Banding wie es vor allem mit der HD5000 Serie der Fall ist. Btw, erbt Llano das stärkere Flimmern der HD6000 oder das stärkere Banding der HD5000 Serie?
 
@Bender

Das kann man leider so pauschal nicht sagen.


Theoretisch kannst du zwar schon den Wechselkurs nehmen, aber

wie diese beiden Beispiele zeigen

http://www.newegg.com/Product/Product.aspx?Item=N82E16819115070&cm_re=2600k-_-19-115-070-_-Product

http://geizhals.eu/de/a580332.html

http://www.newegg.com/Product/Product.aspx?Item=N82E16819115072&cm_re=2500k-_-19-115-072-_-Product

http://geizhals.eu/de/a580328.html


liegen die Preise über dem Wechselkurs sind aber auch weit davon entfernt 1:1 zum Dollar zu stehen.
 
@deadohioksy

schwere Name:)

Danke für den Vergleich. Als richtlinien weiß jetzt das man sich an der akt. Währungskurs richten soll. Ein Differenz von +-10/20 ist allerdings nach dem Beispielen von dir festzustellen, dennoch aber nicht tragisch. Viel tragische wäre doch 1:1.
 
Hm ehrlich gesagt weiß ich noch gar nicht einmal, wie Intels HD überhaupt funktionieren, werde mich da mal einlesen, aber ich vermute dass eine AMD GPU rein technisch schon viel ausgereifter ist, und somit die Theorien von Ralf555 nicht unterstützen. Wobei unmöglich kann es ja nicht sein, dass die Intel HD irwas besser kann als die AMD GPU, doch wenn es um Spiele Treiber geht, wird man bei AMD nicht so lange warten wie auf Intel.
 
Ralf555
hättest du den test gelesen, würde deine Frage beantwortet sein, peinlich irwie, wenn du hier ständig deine Kommentare abgibst, aber nicht mal die Tests ließt.
https://www.computerbase.de/artikel...serie-llano.1517/seite-4#abschnitt_grafikteil

Btw was das Wort Fanboy angeht, sag ich dir eines, ich bin mir ziemlich sicher, dass hier im Forum, du der Inbegriff das klassischen Fanboys bist.
Ich mein hier gibt es einige die eine Firma mehr vertrauen, aber selten ist jemand so realitätsfremd, dass er Tage im Internet verbringt um irwelche Argumentationen zu finden um sein geliebte Marke zu schützen. Irwann kommst du daher und sagst Intel gehört zu den Freimauern und haben das Potential die Welt zu regieren.

Du versuchst ständig mit Worten wie "Objektivität" und mit ständigen Fingerzeigen auf andere, von deinen eigenen Fehlern abzulenken. Würdest du das Wort Objektivität begreifen, würdest du ab und zu in den Spiegel schauen und eine Selbstreflexion machen und wissen, dass es hier schon scheitert.
Ich für mein Teil mag zwar AMD mehr, würde aber auch einen Intel-Prozessor kaufen. (core duo damals gekauft)
Für mich bist du niemand der objektiv ist, wenn du willst kann man vllt ein eigenes Thema auf machen ist Ralf555 objektiv ja nein ?

Ist dir nicht aufgefallen, dass wenn man emotional wird, nicht mehr sachlich denken kann ?

Ich für mein Teil würde bsp einen 2500T kaufen wenn ich nicht einen x6 hätte, der mir schon jz zu schnell ist. und wenn du jz sagst der verbraucht soviel, dann gebe ich dir ne klare Antwort, undervolting.
was den Llano angeht, da ich die meiste zeit lernen muss und selten spiele würde ich mit einem Llano schon zurecht kommen. Was Auflösung und Details angeht, ist mir das oft völlig egal. Hauptsache flüssig soll das game gehen und ich bin nicht der einzige der diese Meinung vertritt. Ich hab zwar eine 6870, werde glaub ich aber lange zeit keine neue mehr brauchen.
 
Zuletzt bearbeitet:
Ein einzelnes Video, dass irgendein Typ bei Herrgottweiß was für Settings gemacht hat und in einem Forum gepostet hat, sehe ich bestimmt nicht als objektiven Beweis für irgendwas an. Es gibt SandyBridge seit über 6 Monaten, das Geflimmer bei AMD ist seit etwa einem Jahr bekannt und niemand hat es getestet und kann bestätigen, dass das AF-Flimmern bei Intel geringer ist?

Und Du kannst ja Wunder was erzählen, was Du auf welcher imaginären Hardware schon alles getestet hast. Und warum kannst Du nicht einfach ein paar klare Links von Deinen "Quellengebern" posten?

Allein wenn man so Sprüche wie "Aber egal von welchem, es wird mehr flimmern als Intels Lösung. Das wäre die Wahl zwischen Pest und Cholera." liest, weiß man wie weit es ist mit Deiner Objektivität. Mir ist es meist wurscht, welcher Rechner bei mir werkelt, ich hatte schon alles mögliche verbaut, also mir brauchst Du mit Fanboy nicht kommen. Das einzige was ich nicht leiden kann, ist wenn man nicht nachweisbare Theorien und Schwachsinn verbreitet.

Gruß FatFire
 
FatFire schrieb:
Es gibt SandyBridge seit über 6 Monaten, das Geflimmer bei AMD ist seit etwa einem Jahr bekannt und niemand hat es getestet und kann bestätigen, dass das AF-Flimmern bei Intel geringer ist?


PCGH hat es afaik auch bestätigt. In einem review zu behaupten, AMDs AF flimmert mehr wäre uncool. Das traut sich keiner. Es kommt besser an Intel zu bashen. Dreimal darfst du raten warum fast immer nur AF-Blumen gezeigt werden, aber niemand anhand dem Filtertester, der HL2 Schottertextur oder ähnlichem einen Flimmertest durchführt. Und wenn, wird meist ein Treiberproblem mit der Filterung verwechselt. Das wären 2 verschiedene Sachverhalte. Du kannst jeden beliebige, willigen Intel HD user fragen, der dir das am Filtertester spielend leicht verifizieren könnte. Wird genauso aussehen wie in meinem Link. Aber was erzähle ich dir Fanboy, erstens fehlt dir die Erfahrung hierfür und zweitens wirst du abstreiten bis zum geht nicht mehr. Solange du mit der Scheuklappe durch die Gegend rennst, wird das nichts werden mit dir.
 
@Ralf: Also mal eben findet man den von dir angesprochenen Test bei PCGH.de nicht. Ein Link dazu wäre nett, damit man nicht jeden einzelnen Test einzeln durchblättern muss in der Hoffnung, besagte Stelle zu finden...
 
yasu schrieb:
@Ralf: Also mal eben findet man den von dir angesprochenen Test bei PCGH.de nicht. Ein Link dazu wäre nett, damit man nicht jeden einzelnen Test einzeln durchblättern muss in der Hoffnung, besagte Stelle zu finden...

Du darfst y33H@ von der PCGH fragen, er kann dir das bestätigen. Sorry, noch mehr Mühe muss ich mir bei so viel Ignoranz nicht machen. Im übrigen frage ich mich wo euer Beweis bleibt, dass Intels Filterung genauso oder stärker flimmert. Gibt es nicht, weil dies nicht zutrifft. Entschuldigung das ich Gotteslästerung betreibe. Wir sollten doch besser bei der Wahrheit bleiben. FatFire hat sich hier disqualifiziert mit seiner Unkenntnis. Wem das Wissen fehlt, der muss sich auch verbessern und belehren lassen, nur so kann ein Lerneffekt eintreten. Den kann ich bei Fatfire beim besten Willen nicht erkennen. Der Wille muss vorhanden sein. Bei ihm gilt leider nur das Motto: Es kann nicht sein, was nicht sein darf...

Wer so wie Fatfire in die Diskussion einsteigt, ist ohnehin nur auf Polemik aus. Ihm ging es nie um die Wahrheit.
 
Zurück
Oben